Question de M. HINGRAY Jean (Vosges - UC) publiée le 16/03/2023
M. Jean Hingray attire l'attention de M. le ministre délégué auprès du ministre de l'économie, des finances et de la souveraineté industrielle et numérique, chargé de la transition numérique et des télécommunications, sur la responsabilité des plateformes en ligne en matière de lutte contre la désinformation chez la jeunesse. Une étude publiée le 14 septembre 2022 par NewsGuard, une entreprise américaine spécialisée dans le suivi de la désinformation en ligne démontre que près de 20 % des vidéos diffusées sur la plateforme TikTok contiennent de fausses informations. De la guerre en Ukraine jusqu'aux vaccins, le constat est plus qu'alarmant à l'heure où la défiance envers les institutions affaiblit notre démocratie. La désinformation n'a cessé de croître ces dernières années. Il est donc aujourd'hui primordial de protéger la jeunesse face à un fléau très sous-estimé. Les algorithmes répondent à une logique de rétention de l'attention et d'absorption d'informations succinctes qui ne permettent pas le développement d'un esprit critique et éclairé chez les jeunes. L'environnement numérique est aujourd'hui incontestablement gangréné, ce qui génère des conséquences alarmantes : hostilité à l'égard des élus, radicalisation de l'opinion, montée des populismes. Ces phénomènes, aussi dramatiques que redoutables, contribuent à l'affaiblissement de l'État et de nos institutions. Les efforts consentis par l'État et les plateformes pour encadrer et endiguer ce phénomène, en réponse à la loi n° 2018-1202 du 22 décembre 2018 relative à la lutte contre la manipulation de l'information, demeurent toutefois très insuffisants pour répondre à une problématique si difficilement mesurable. La loi du 22 décembre 2018 oblige les plateformes à répondre aux questions de l'autorité de régulation des communications (Arcom) en ce qui concerne les dispositions mises en oeuvre en matière de lutte contre les fausses informations. En septembre 2022, l'Arcom a rappelé à l'ordre la plateforme TikTok. Cette dernière a fait part d'une opacité notable en matière de partage d'informations. Bien que l'Arcom souligne une amélioration des informations partagées par les plateformes, cela demeure toutefois insuffisant.
À la suite de la promulgation de la loi contre la manipulation de l'information le 22 décembre 2018, il lui demande comment il compte assurer la bonne tenue des engagements pris par les plateformes en matière de lutte contre la désinformation, et quelles perspectives l'État envisage pour mieux protéger la jeunesse contre ce phénomène en matière d'éducation et de formation.
Il lui demande donc de faire connaître les dispositions du Gouvernement en matière de lutte contre la désinformation en ligne.
- page 1833
Transmise au Ministère de la culture
Réponse du Ministère de la culture publiée le 22/06/2023
Avec l'essor du numérique et des grandes plateformes, les réseaux sociaux sont devenus une enceinte privilégiée de partage de contenus et de recherche d'informations, notamment pour les jeunes. Cette dynamique s'est encore accentuée avec la crise sanitaire et Tik Tok a renforcé sa popularité auprès des jeunes sur cette période. Or ces réseaux sociaux diffusent une multitude inédite de contenus postés par leurs utilisateurs dont certains de désinformation, dont la visibilité et la viralité peuvent être souvent accentuées par un relais spontané des internautes mais aussi par des outils de mise en avant automatisée, à l'aide d'algorithmes de recommandation. Ces phénomènes ont des conséquences importantes et très concrètes sur la vie réelle des citoyens, et notamment des mineurs - plus vulnérables, la cohésion de la société et la stabilité de la démocratie. La modération efficace de ces contenus et plus largement la régulation de ces réseaux sociaux sont donc devenues un enjeu primordial, au coeur des préoccupations du ministère de la culture. Cette régulation doit poursuivre les mêmes objectifs d'intérêt général que pour les médias traditionnels : protéger les publics et notamment les mineurs, lutter contre la désinformation tout en veillant à préserver la liberté d'expression, afin de promouvoir un espace public numérique où les utilisateurs peuvent s'informer, s'exprimer librement et débattre de façon saine et en sécurité. Dès 2018, la France a adopté des dispositions contraignantes pour lutter contre la désinformation tant sur les services audiovisuels que sur les plateformes numériques, établies en France comme à l'étranger. En effet, la loi du 22 décembre 2018 relative à la lutte contre la manipulation de l'information, dite loi « infox », instaure un devoir de coopération des plateformes en ligne, au-delà d'un seuil d'audience de 5 millions d'utilisateurs, pour lutter contre la désinformation : ainsi elles doivent lutter contre la diffusion de fausses informations susceptibles de troubler l'ordre public ou d'altérer la sincérité des élections, mettre en place un dispositif de signalement des fausses informations et des mesures complémentaires telles que la lutte contre les faux comptes, la promotion des contenus issus des agences ou services de presse, la transparence sur l'identité des personnes qui paient pour promouvoir des contenus, ou encore l'éducation aux médias et à l'information. Ces plateformes doivent en rendre compte chaque année à l'Autorité de régulation de la communication audiovisuelle et numérique (ARCOM), qui n'est toutefois pas dotée de pouvoirs de sanction mais peut adresser des recommandations. L'ARCOM a dressé en novembre 2002 le bilan de trois années d'application de la loi Infox. De manière générale, la mise en oeuvre de la loi, par la voie d'un dialogue ouvert et exigeant entre le régulateur et les plateformes, a grandement contribué à la création, en France, de capacités institutionnelles et des compétences opérationnelles de supervision des moyens mis en oeuvre par les plateformes pour lutter contre la manipulation de l'information en ligne. Si l'autorité note une amélioration globale de la transparence aussi bien dans la qualité que dans la quantité globale des informations transmises par les plateformes d'année en année, il n'en reste pas moins que la participation reste inégale, que ces efforts de transparence apparaissent toujours très insuffisants et que les plateformes n'apportent aucun éclairage sur le poids économique de la désinformation sur leur service. TikTok, fort d'une audience de plus de 9 millions de visiteurs uniques par jour en France (source Médiamétrie - septembre 2022), s'est soumis pour la première fois en 2021 au questionnaire de l'ARCOM. Le réseau social qui s'est en effet particulièrement démarqué par l'absence d'informations tangibles fournies (absence de réponse sur les étapes de l'instruction d'un signalement, sur le fonctionnement des outils de modération, sur les pratiques de manipulation identifiées sur le service, etc.), ou par le caractère particulièrement imprécis des éléments avancés et l'absence d'éléments chiffrés, a été rappelé à l'ordre par le régulateur. C'est désormais à l'échelle européenne qu'une dynamique s'est enclenchée avec le règlement sur les services numériques (Digital Services Act ou DSA) adopté en octobre 2022. Ce texte ambitieux, qui entrera en application au 1er janvier 2024, établit des règles harmonisées concernant la modération des contenus par les plateformes numériques. Il renforce les obligations pour ces dernières de lutter contre les contenus illicites et préjudiciables, tout en assurant la protection des droits fondamentaux des utilisateurs, notamment la liberté d'expression et le pluralisme des médias. Le règlement prévoit des obligations additionnelles, applicables dès le 1er septembre 2023, pour les plateformes en ligne et les moteurs de recherche de plus forte audience (plus de 45 millions d'utilisateurs mensuels) - dont TikTok, pour mieux répondre encore aux risques soulevés par ces acteurs en matière de protection des publics - notamment des mineurs, et de stabilité des sociétés démocratiques. En particulier, en matière de désinformation, ces plus grosses plateformes devront évaluer les risques liés à leurs services, en mettant l'accent sur les processus qui facilitent sa dissémination virale (algorithmes de recommandation, fonctionnalités de partage), sur la manipulation intentionnelle (désinformation) ayant des effets négatifs sur les processus électoraux, la sécurité publique, la santé publique ou sur la protection des mineurs. Ils devront prendre des mesures d'atténuation pour, par exemple, réduire les effets négatifs de recommandations personnalisées et corriger les critères utilisés dans leurs recommandations ou accroître la visibilité des sources d'information faisant autorité. Est aussi précisé que ces grandes plateformes devront envisager des actions de sensibilisation, en particulier lorsque les risques sont liés à des campagnes de désinformation. Le respect de ces obligations sera contrôlé par la Commission européenne pour les plus gros acteurs (dont TikTok) dotée de pouvoirs de sanctions dissuasifs allant jusqu'à 6 % du chiffre d'affaires annuel mondial. Pour que ce nouveau cadre européen fonctionne de manière optimale, une forte coordination aux niveaux national et communautaire sera indispensable et un fort ancrage national devra subsister afin, notamment, d'alimenter l'action de la Commission européenne vis-à-vis des très grandes plateformes et très grands moteurs de recherche. Ainsi, l'ARCOM, forte de sa connaissance de ces problématiques et de l'expérience acquise dans la régulation des plateformes, poursuivra le dialogue engagé avec celles-ci, pour concourir à lutter contre la désinformation en ligne. Ce nouveau cadre européen, ambitieux et aux sanctions financières dissuasives, devrait donc permettre rapidement de sécuriser l'engagement des plus gros réseaux sociaux, très prisés des internautes et plus particulièrement des mineurs, à lutter contre la désinformation aux niveaux national et européen.
- page 3907
Page mise à jour le