|
|
|
Vu l’article 88-4 de la Constitution,
|
|
Vu le traité sur le fonctionnement de l’Union européenne (TFUE), et notamment ses articles 16 et 114,
|
|
Vu la charte des droits fondamentaux de l’Union européenne, et notamment ses articles 8, 11, 21, 22, 35, 36 et 38,
|
|
Vu la convention de sauvegarde des droits de l’homme et des libertés fondamentales, 2000/C 364/01, et notamment ses articles 10, 11 et 16, son protocole additionnel, et notamment son article 3, et le protocole n° 12,
|
|
Vu la convention du Conseil de l’Europe pour la protection des personnes à l’égard du traitement automatisé des données à caractère personnel du 28 janvier 1981 et son protocole additionnel du 8 novembre 2001 (« Convention 108 + »), notamment son article 6,
|
|
Vu la directive 2000/31/CE du Parlement européen et du Conseil du 8 juin 2000 relative à certains aspects juridiques des services de la société de l’information, et notamment du commerce électronique, dans le marché intérieur (« directive sur le commerce électronique »),
|
|
Vu le règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation des données, abrogeant la directive 95/46/CE (règlement général sur la protection des données – RGPD),
|
|
Vu l’article 6 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique,
|
|
Vu l’article L. 111-7 du code de la consommation, introduit par l’article 49 de la loi n° 2016-1321 du 7 octobre 2016 pour une République numérique,
|
|
Vu la loi n° 2018-1202 du 22 décembre 2018 relative à la lutte contre la manipulation de l’information,
|
|
Vu la loi n° 2020-766 du 24 juin 2020 visant à lutter contre les contenus haineux sur internet,
|
|
Vu l’article 42 de la loi n° 2021-1109 du 24 août 2021 confortant le respect des principes de la République,
|
|
Vu l’arrêt « Google France et Google » de la Cour de Justice de l’Union européenne rendu le 23 mars 2010, C-236/08,
|
|
Vu l’arrêt « L’Oreal contre eBay » de la Cour de Justice de l’Union européenne rendu le 12 juillet 2011, C-324/09,
|
|
Vu l’arrêt « SABAM » de la Cour de Justice de l’Union européenne rendu le 16 février 2012, C-360/10,
|
|
Vu la recommandation de la Commission du 1er mars 2018 sur les mesures destinées à lutter, de manière efficace, contre les contenus illicites en ligne, C(2018) 1177 final,
|
|
Vu la communication de la Commission européenne au Parlement européen, au Comité économique et social européen et au Comité européen des Régions du 26 avril 2018 intitulée « Lutter contre la désinformation en ligne : une approche européenne », COM(2018) 236 final,
|
|
Vu la communication conjointe au Parlement européen, au Conseil européen, au Conseil, au Comité économique et social européen et au Comité des régions du 5 décembre 2018, intitulée « Plan d’action contre la désinformation », JOIN(2018) 36,
|
|
Vu la communication de la Commission au Parlement européen, au Conseil, au Comité économique et social européen et au Comité des régions du 19 février 2020, intitulée « Façonner l’avenir numérique de l’Europe », COM(2020) 67 final,
|
|
Vu la communication conjointe au Parlement européen, au Conseil européen, au Conseil, au Comité économique et social européen et au Comité des régions du 3 décembre 2020, relative au plan d’action pour la démocratie européenne, COM(2020) 790 final,
|
|
Vu la communication de la Commission au Parlement européen, au Conseil, au Comité économique et social européen et au Comité des régions du 26 mai 2021, intitulé « Orientations de la Commission européenne visant à renforcer le code européen de bonnes pratiques contre le désinformation », COM(2021) 262 final,
|
|
Vu la proposition de règlement du Parlement européen et du Conseil relative à un marché unique des services numériques (législation sur les services numériques) et modifiant la directive 2000/31/CE, COM(2020) 825 final,
|
|
Vu la proposition de règlement du Parlement européen et du Conseil relatif aux marchés contestables et équitables dans le secteur numérique (législation sur les marchés numériques), COM(2020) 842 final,
|
|
Vu la proposition de règlement du Parlement européen et du Conseil établissant des règles harmonisées concernant l’intelligence artificielle (législation sur l’intelligence artificielle) et modifiant certains actes législatifs de l’Union, COM(2021) 206 final,
|
|
Vu l’avis du Contrôleur européen de la protection des donnée (CEPD 1/2021 du 10 février 2021 sur la proposition de Législation sur les services numériques,
|
|
Vu la résolution du Parlement européen du 25 octobre 2018 sur l’exploitation des données des utilisateurs de Facebook par Cambridge Analytica et les conséquences en matière de protection des données (2018/2855(RSP),
|
|
Vu la résolution du Parlement européen du 20 octobre 2020, intitulée « Améliorer le fonctionnement du marché unique » (2020/2018(INL)),
|
|
Vu la résolution du Parlement européen du 20 octobre 2020, relative à l’adaptation des règles de droit commercial et civil pour les entités commerciales exerçant des activités en ligne (2020/2019(INL)),
|
|
Vu la résolution du Parlement européen du 20 octobre 2020 sur la législation relative aux services numériques et les questions liées aux droits fondamentaux (2020/2022(INI)),
|
|
Vu les consultations publiques lancées par la Commission européenne le 2 juin 2020 sur le Paquet dit Digital Services Act portant, respectivement, sur l’approfondissement du marché intérieur et la clarification des responsabilités des services numériques et sur un instrument de régulation ex ante des grandes plateformes en ligne à effets de réseau significatifs se comportant comme des gatekeepers dans le Marché intérieur,
|
|
Vu le code de conduite européen sur la lutte contre les discours haineux illégaux en ligne (2016),
|
|
Vu la sixième évaluation du code de conduite pour la lutte contre les discours haineux illégaux en ligne (2021),
|
|
Vu le code européen de bonnes pratiques contre la désinformation (2018),
|
|
Vu l’évaluation du code européen de bonnes pratiques contre la désinformation, SWD(2020) 180 final,
|
|
Vu la résolution européenne du Sénat n° 68 (1999-2000) du 5 février 2000, sur la proposition de directive du Parlement européen et du Conseil relative à certains aspects juridiques du commerce électronique dans le marché intérieur,
|
|
Vu la résolution européenne du Sénat n° 31 (2018-2019) du 30 novembre 2018, sur la responsabilisation partielle des hébergeurs de services numériques,
|
|
Vu la résolution européenne du Sénat n° 32 (2021-2022) du 12 novembre 2021 sur la proposition de règlement sur les marchés numériques (DMA),
|
|
Vu le rapport d’information du Sénat n° 443 (2012-2013) de Mme Catherine MORIN-DESAILLY, fait au nom de la commission des affaires européennes, L’Union européenne, colonie du monde numérique ?, déposé le 20 mars 2013,
|
|
Vu le rapport d’information du Sénat n° 696 (2013-2014) de Mme Catherine MORIN-DESAILLY, fait au nom de la mission commune d’information sur la gouvernance mondiale de l’Internet, L’Europe au secours de l’Internet : démocratiser la gouvernance de l’Internet en s’appuyant sur une ambition politique et industrielle européenne, déposé le 8 juillet 2014,
|
|
Vu le rapport d’information du Sénat n° 326 (2017-2018) de M. André GATTOLIN et Mme Colette MELOT, fait au nom de la commission des affaires européennes, Quelle protection pour les consommateurs européens à l’ère du numérique ?, déposé le 21 février 2018,
|
|
Vu le rapport du Sénat n° 677 (2017-2018) de Mme Catherine MORIN-DESAILLY, fait au nom de la commission de la culture, de l’éducation et de la communication, sur la proposition de loi relative à la lutte contre les fausses informations, déposé le 18 juillet 2018,
|
|
Vu le rapport du Sénat n° 731 (2017-2018) de Mme Catherine MORIN-DESAILLY, sénatrice, et M. Bruno STRUDER, député, fait au nom de la commission mixte paritaire, sur la proposition de loi relative à la lutte contre la manipulation de l’information, déposé le 26 septembre 2018,
|
|
Vu le rapport du Sénat n° 75 (2018-2019) de Mme Catherine MORIN-DESAILLY, fait au nom de la commission de la culture, de l’éducation et de la communication, sur la proposition de loi relative à la lutte contre les fausses informations, déposé le 24 octobre 2018,
|
|
Vu le rapport du Sénat n° 7 (2019-2020) de M. Gérard LONGUET, fait au nom de la commission d’enquête sur la souveraineté numérique, Le devoir de souveraineté numérique, déposé le 1er octobre 2019,
|
|
Vu les rapports du Sénat n° 645 (2018-2019) et n° 299 (2019-2020) de M. Christophe-André FRASSA, fait au nom de la commission des lois constitutionnelles, de législation, du suffrage universel, du Règlement et d’administration générale la culture, de l’éducation et de la communication, sur la proposition de loi visant à lutter contre les contenus haineux sur internet, déposés le 11 décembre 2019 et le 5 février 2020,
|
|
Vu le rapport du Sénat n° 239 (2019-2020) de M. Christophe-André FRASSA, sénateur, et Mme Laetitia AVIA, députée, fait au nom de la commission mixte paritaire, sur la proposition de loi visant à lutter contre les contenus haineux sur internet, déposé le 8 janvier 2020,
|
|
Vu le rapport du Sénat n° 454 (2010-2021) de Mmes Jacqueline EUSTACHE-BRINIO et Dominique VERIEN, fait au nom de la commission des lois constitutionnelles, de législation, du suffrage universel, du Règlement et d’administration générale, sur le projet de loi confortant le respect des principes de la République, déposé le 18 mars 2021,
|
|
Vu le rapport d’information du Sénat n° 34 (2021-2022) de Mmes Florence BLATRIX CONTAT et Catherine MORIN-DESAILLY, fait au nom de la commission des affaires européennes, Proposition de règlement sur les marchés numériques (DMA), déposé le 7 octobre 2021,
|
|
Sur l’opportunité de la proposition de règlement
|
|
Considérant les profondes évolutions de l’écosystème numérique depuis l’adoption de la directive 2000/31/CE du Parlement européen et du Conseil du 8 juin 2000, sur le commerce, notamment la place primordiale prise par les hébergeurs – au sens de ladite directive – dans les relations sociales, les modes de consommation, l’accès à l’information et le débat public, et la domination des géants américains du numérique ;
|
|
Considérant que la prolifération des contenus illicites sur internet, du harcèlement en ligne et de la désinformation constituent les ferments d’une désagrégation du corps social, et constituent des risques majeurs pour l’équilibre de nos démocraties ;
|
|
Considérant, en conséquence, que les règles libérales établies par la directive 2000/31/CE du Parlement européen et du Conseil du 8 juin 2000, en vue de favoriser l’émergence de nouveaux acteurs du numérique – en particulier le principe de responsabilité limitée des hébergeurs -, ne sont plus adaptées aux évolutions de l’écosystème numérique et ne répondent plus aux enjeux de sécurité de l’environnement numérique ;
|
|
Considérant que les codes de conduite volontaire établis aux niveaux européen et nationaux n’ont pas fait la preuve de leur efficacité et que les fournisseurs de services numériques n’ont pas démontré leur volonté de trouver des solutions technologiques et opérationnelles permettant de répondre aux objectifs affichés ;
|
|
Accueille favorablement l’initiative prise par la Commission de proposer une législation sur les services numériques, visant à renforcer les obligations des fournisseurs de services intermédiaires en vue de créer un environnement en ligne plus sûr ;
|
|
Estime pertinente la double approche fondée, pour les contenus illégaux, sur le renforcement des obligations concrètes de modération, et, pour les contenus illégaux et les contenus légaux susceptibles d’être préjudiciables, sur des obligations de vigilance renforcée, notamment en matière de transparence et de moyens ;
|
|
Approuve l’approche graduelle en fonction de la nature et de la taille des fournisseurs de services intermédiaires concernés, et notamment la prise en compte des risques systémiques spécifiques posés par les très grandes plateformes en ligne ;
|
|
Approuve le montant dissuasif des sanctions financières susceptibles d’être infligées par les régulateurs nationaux ou la Commission aux opérateurs de services en ligne en cas d’infraction au règlement, y compris pour manquement à leurs obligations de vigilance (art. 42, 59 et 60) ;
|
|
Sur les types d’acteurs concernés
|
|
Considérant l’absence de mention explicite des moteurs de recherche dans la proposition de règlement ;
|
|
Considérant que le caractère quasi-monopolistique des grands moteurs de recherche en Europe les met vis-à-vis des utilisateurs dans une position de verrouillage de l’accès à l’information et aux contenus ;
|
|
Demande que les moteurs de recherche soient soumis aux obligations communes à l’ensemble des intermédiaires établies par le règlement, et que les très grands moteurs de recherche, définis sur le même critère de nombre d’utilisateurs que les très grandes plateformes, soient soumis en outre aux obligations spécifiques à ces dernières ;
|
|
Sur les exemptions pour les petites entreprises
|
|
Considérant que l’imposition de charges administratives trop lourdes à des petites et moyennes entreprises et à de jeunes entreprises risquerait d’entraver l’innovation, le développement et le passage à l’échelle d’acteurs européens du numérique,
|
|
Considérant que les exemptions prévues par le projet de règlement (art. 13 (2) et 16) concernent principalement des obligations de transparence, sans remettre en cause les conditions d’engagement de la responsabilité des acteurs concernés, ni l’imposition, pour les hébergeurs, d’un mécanisme de notification et action harmonisé ;
|
|
Considérant que le franchissement des seuils d’exemption prévus entraînera automatiquement, aux termes du règlement, la soumission aux obligations de droit commun établies par ce dernier ;
|
|
Considérant les risques de préjudices individuels, directs et immédiats, susceptibles d’être causés aux consommateurs par la vente en ligne de produits et services illicites ou dangereux ;
|
|
Considérant que les critères d’exemption reposent sur des critères de chiffre d’affaire et de nombre de salariés qui ne rendent que très partiellement compte du poids réel de ces plateformes dans l’écosystème numérique ;
|
|
Soutient les exemptions prévues pour les petites et microentreprises, à l’exception néanmoins des obligations relatives à la vente de produits et services en ligne, notamment à la traçabilité des professionnels (art. 22) ;
|
|
Recommande dans tous les cas qu’un critère d’audience soit privilégié pour évaluer l’opportunité ou non d’exempter une plateforme en ligne de certaines obligations administratives ;
|
|
Sur les critères de définition des « très grandes plateformes »
|
|
Considérant la nécessité d’une méthodologie de calcul des seuils robuste, afin de se prémunir contre toute pratique de contournement des seuils qualifiant les « très grandes plateformes » et déclenchant les obligations et modalités de contrôle afférentes ;
|
|
Considérant que le nombre d’utilisateurs en valeur absolue est un indicateur insuffisant pour déterminer le risque de création ou d’aggravation de risques systémiques ;
|
|
Demande une clarification en annexe du règlement de la méthodologie de calcul des seuils et du nombre mensuel moyen d’utilisateurs actifs, notamment de l’assiette utilisée pour déterminer le nombre d’utilisateurs actifs ;
|
|
Recommande le recours à des tiers certifiés pour déterminer le nombre de bénéficiaires actifs des plateformes en ligne ;
|
|
Souhaite, dans la logique d’une approche fondée sur le risque, la mise en place d’un mécanisme permettant de soumettre, au cas par cas, aux obligations spécifiques prévues à la section 4 du chapitre III, des plateformes en ligne n’atteignant pas les seuils fixés à l’article 25, sur la base de critères complémentaires prenant notamment en compte la part d’audience de ces plateformes dans certaines catégories de population, notamment en fonction de critères géographiques ;
|
|
Estime que ces critères complémentaires devraient notamment tenir compte du ciblage de publics vulnérables, notamment des mineurs ;
|
|
Sur les mécanismes de retrait des contenus illicites
|
|
Considérant le maintien, dans le règlement, de l’interdiction de soumettre les fournisseurs de services intermédiaires à une obligation de surveillance généralisée des contenus (art. 7) ;
|
|
Considérant que, conformément au principe de responsabilité limitée des hébergeurs, la possibilité d’engager la responsabilité d’un hébergeur pour la présence d’un contenu illicite sur ses services dépend concrètement de la possibilité de l’informer de la présence de ce contenu illicite ;
|
|
Considérant que confier l’appréciation du caractère illicite des contenus, en première approche, à des opérateurs de service en ligne qui sont des entités privées, est susceptible de porter gravement atteinte à la liberté d’expression, a fortiori lorsqu’il s’agit de contenus qui ne sont pas manifestement illicites ;
|
|
Considérant que les mesures de lutte et de protection contre les utilisations abusives prévues dans le projet de règlement (art. 20) concernent exclusivement des mesures qui peuvent être prises par les plateformes à l’encontre des utilisateurs, sans que soit prise en compte l’éventualité de modération abusives de la part des plateformes elles-mêmes ;
|
|
Considérant que les mécanismes d’amplification des contenus sur les plateformes en ligne créent un espace public en ligne dont les caractéristiques sont différentes de l’espace public dans le monde réel ;
|
|
Approuve la mise en place obligatoire, pour tous les hébergeurs, d’un mécanisme de notification et action harmonisé dans l’ensemble de l’Union (art. 14) ;
|
|
Estime qu’afin que ce mécanisme soit réellement « facile d’accès et d’utilisation », une normalisation plus poussée, notamment en matière de visibilité, est nécessaire ; le mécanisme de signalement devrait notamment être obligatoirement placé à proximité immédiate du contenu faisant l’objet d’un signalement ;
|
|
Estime que lorsque le caractère illicite d’un contenu n’est pas manifeste, les plateformes en ligne devraient être invitées dans un premier temps à réduire la visibilité de ce dernier, sans toutefois le supprimer, le temps de vérifier son caractère illicite ;
|
|
Souhaite que la fermeture de certaines catégories de comptes d’intérêt général, dont ceux de personnalités politiques, ne puisse intervenir que sur décision de justice, et non, comme prévu actuellement, sur simple décision de la plateforme (art. 20) ;
|
|
Suggère que les données pertinentes pour l’évaluation du respect de la liberté d’expression par les fournisseurs de services intermédiaires puissent être conservées et mises à la disposition de chercheurs et auditeurs indépendants agréés, ainsi que des régulateurs, dans le respect de la protection des données à caractère personnel ;
|
|
Sur les signaleurs de confiance
|
|
Considérant la quantité de notifications reçues par les fournisseurs de services intermédiaires en ligne et l’inégale gravité de l’illicéité des contenus notifiés et la nécessité de se prémunir contre les notifications abusives,
|
|
Considérant l’enjeu considérable que constitue la lutte contre la contrefaçon sur internet, qu’il s’agisse de marchandises ou de contenus de médias ou culturels ;
|
|
Approuve l’instauration d’un statut de « signaleurs de confiance », dont les notifications devront être traitées « de manière prioritaire et dans les meilleurs délais » ;
|
|
Suggère la suppression du critère de représentation des « intérêts collectifs » pour les « signaleurs de confiance », afin que ce statut puisse, dans les conditions établies par le règlement, être reconnu à certaines grandes entreprises et certains syndicats professionnels ou organismes de gestion des droits ;
|
|
Sur les obligations de transparence concernant la modération et les obligations de vigilance
|
|
Considérant l’insuffisance des informations, notamment sur les activités de modération, fournies par les opérateurs de service en ligne, y compris dans les rapports de transparence qu’ils publient volontairement au titre des codes de conduite auxquels ils adhèrent ;
|
|
Considérant en outre l’inégalité des performances des algorithmes de modération, mais aussi l’inégal engagement des ressources humaines consacrées par les très grandes plateformes, en fonction des différentes langues, cultures et législations des pays qu’elles ciblent ;
|
|
Exige que ces rapports de transparence publiés par les opérateurs de services en ligne aux termes des articles 13, 23 et 33, comprennent des informations sur les moyens financiers, notamment humains, engagés pour se conformer aux obligations de modération et aux autres obligations de vigilance prévues par le règlement, et a minima une ventilation des informations et données exigibles par État membre et par langue ;
|
|
Doute néanmoins de la fiabilité de rapports de transparence rédigés par les opérateurs eux-mêmes ;
|
|
Approuve l’obligation faite aux très grandes plateformes de se soumettre annuellement à un audit indépendant ;
|
|
Invite à préciser les garanties relatives à l’indépendance des auditeurs des très grandes plateformes,
|
|
|
|
Considérant qu’il est indispensable que les régulateurs puissent disposer de toutes les données nécessaires pour contrôler le respect du règlement par les opérateurs de services en ligne ;
|
|
Considérant en outre la nécessité d’une évaluation externe des risques systémiques représentés par les très grandes plateformes en ligne, s’appuyant notamment sur les compétences du milieu académique ;
|
|
Approuve l’obligation faite aux très grandes plateformes en ligne de fournir aux autorités de régulation nationales ou à la Commission les données nécessaires pour contrôler et évaluer le respect du règlement (art. 31 (1)), ainsi que de fournir l’accès à leurs données à des chercheurs agréés, aux fins de procéder à des recherches contribuant à identifier et à la comprendre les risques représentés posés par leurs services (art. 31 (2) ;
|
|
Estime que les régulateurs nationaux devraient se voir garantir des pouvoirs d’accès aux données égaux à ceux de la Commission ;
|
|
Juge indispensable que l’accès aux données des très grandes plateformes ne soit pas limité aux chercheurs affiliés à des établissements universitaires (art. 31 (4)), mais soit garanti à tout chercheur, y compris des chercheurs indépendants agréés ;
|
|
S’oppose à la possibilité pour une très grande plateforme de refuser l’accès aux données au motif de la protection d’informations confidentielles ou de la sécurité de son service (art. 31 (7)), sauf à démontrer que ces données ne sont pas nécessaires aux fins de la demande ;
|
|
Souhaite que les actes délégués (art. 31 (5)) qui établiront les conditions techniques de mise à disposition des données, tout en tenant dûment compte de la nécessité de concilier la protection des données à caractère personnel et le secret des affaires, n’aboutissent pas à limiter abusivement dans les faits l’accès aux données, notamment en faisant peser sur les chercheurs des charges de mise en conformité excessives ;
|
|
Recommande, la mise en place de protocoles de tests d’algorithmes sur la base des données disponibles publiquement sur les très grandes plateformes, au profit des autorités de régulation et des chercheurs, en complément de la mise à disposition des données par l’intermédiaire de bases de données en ligne ou d’interfaces de programme d’application (art. 31 (3)) ;
|
|
Estime indispensable de ne pas conserver le caractère limitatif de la liste de motifs d’ouverture des données aux chercheurs agréés prévue à l’article 26 (1), afin de permettre la détection par ces derniers de l’ensemble des risques systémiques susceptibles d’être représentés par les très grandes plateformes en ligne ;
|
|
Sur certaines catégories de risques spécifiques
|
|
Sur la protection des consommateurs :
|
|
Considérant l’existence d’une règlementation sectorielle spécifique en matière de protection du consommateur, au niveau européen comme au niveau national ;
|
|
Considérant que la prolifération, sur les places de marché en ligne, de produits contrefaits et illicites, est susceptible de mettre gravement en danger la santé des consommateurs ;
|
|
Considérant que de nombreux fournisseurs de service en ligne fournissent, à titre accessoire, des services de vente en ligne, ou de redirection vers des sites marchands, ainsi que de publicité ;
|
|
Estime utile de soumettre à des obligations horizontales spécifiques l’ensemble des plateformes en ligne permettant la mise en relation d’un client et d’un vendeur professionnel et la conclusion de contrats de vente de biens ou de services avec un vendeur professionnel ;
|
|
Approuve, en conséquence, les dispositions concernant la traçabilité des vendeurs (art. 22) ;
|
|
Estime que, dans certains cas, notamment lorsqu’elles ne se sont pas conformées à cette obligation de vérifier l’identité du vendeur, les plateformes en ligne permettant la conclusion de contrats de vente devraient pouvoir être tenues pour responsables des dommages causés par la vente de produits illicites, notamment lorsqu’il s’agit de produits dangereux ;
|
|
Estime que les risques pour la protection des consommateurs devraient faire partie des risques systémiques évalués annuellement par les très grandes plateformes (art. 26) ;
|
|
Sur le pluralisme des médias :
|
|
Considérant qu’il n’existe au niveau européen aucune définition des « médias » permettant de garantir la qualité et l’indépendance des services habituellement classés dans cette catégorie, et a fortiori des services se qualifiant comme tels ;
|
|
Considérant le rôle majeur joué par des entités étrangères se présentant comme des médias dans les campagnes coordonnées de désinformation qui ont récemment visé l’Europe ;
|
|
Considérant l’enjeu crucial, pour l’avenir des démocraties européennes, que représente la lutte contre la désinformation en ligne ;
|
|
Considérant que le soutien à un journalisme de qualité et la promotion d’informations émanant de sources fiables est un facteur efficace de lutte contre la désinformation ;
|
|
Considérant que les législations en faveur de la liberté et du pluralisme de la presse relèvent de l’échelon national ;
|
|
Souhaite que les risques d’atteinte au pluralisme des médias soient ajoutés à la liste des risques systémiques qui devraient être évalués annuellement par les très grandes plateformes (art. 26) ;
|
|
Suggère que les plateformes en ligne, et notamment les très grandes plateformes, soient tenues d’assurer une visibilité améliorée des informations d’intérêt public émanant de sources fiables, notamment de sources journalistiques et de médias, sur la base de normes et de critères co-construits avec les acteurs du secteur ;
|
|
Estime nécessaire que soit affirmée explicitement la possibilité pour les législateurs nationaux d’adopter des mesures favorisant le pluralisme des médias sur internet ;
|
|
Sur la protection des enfants :
|
|
Considérant que l’exposition des enfants aux contenus illicites, haineux ou inappropriés sur internet est particulièrement préjudiciable à leur développement, à leur équilibre et à leur bien-être ;
|
|
Demande que les atteintes à la santé physique et psychique des enfants soient ajoutées à la liste des risques systémiques évalués annuellement pas les très grandes plateformes (art. 26) ;
|
|
Suggère que les évaluations des autres risques systémiques comportent systématiquement une section concernant plus spécifiquement les enfants ;
|
|
Estime que la protection des publics vulnérables, en particulier des enfants, devrait faire l’objet d’une réflexion particulière dans le cadre des codes de conduite mentionnés aux articles 35 et 36 ;
|
|
Souhaite que les très grandes plateformes soient invitées à collaborer avec les autorités de régulation nationales et européennes pertinentes et les instances académiques, en vue de l’établissement de normes pour l’établissement d’un droit à l’oubli renforcé pour les mineurs ;
|
|
Demande que, parmi les normes qui seront établies par la Commission européenne aux termes de l’article 34 de la proposition de DSA, figure la mise en place de systèmes de contrôle de l’âge des utilisateurs ;
|
|
Sur le modèle économique des plateformes et le rôle des algorithmes
|
|
Considérant que le modèle économique des plateformes, en particulier des réseaux sociaux, est basé sur l’économie de l’attention et repose sur la rémunération par la vente d’espaces publicitaires ;
|
|
Considérant que ce modèle, qui incite les plateformes à maximiser par tous les moyens le temps passé par les utilisateurs sur leurs services, jusqu’à porter atteinte à leur bien-être et leur sécurité, favorise la propagation de contenus violents et clivants, qui provoquent un engagement maximal des utilisateurs ;
|
|
Considérant que l’asymétrie d’information entre les plateformes et leurs utilisateurs, notamment en ce qui concerne les paramètres de fonctionnement des systèmes de recommandation des contenus et les données à caractère personnel utilisées pour le ciblage, est à l’origine de l’enfermement des utilisateurs dans des bulles de contenus de plus en plus polarisées ;
|
|
Estime nécessaire d’ajouter à la liste des risques systémiques qui devraient être évalués annuellement (art. 26) et atténués (art. 27) par les très grandes plateformes les risques découlant du fonctionnement même des algorithmes de recommandation et des systèmes publicitaires ;
|
|
Sur les systèmes algorithmiques :
|
|
Approuve l’obligation faite aux très grandes plateformes en ligne de fournir aux utilisateurs des informations sur les principaux paramètres utilisés par les systèmes de recommandation des contenus, la possibilité de les modifier et de les désactiver (art. 29) ;
|
|
Demande la désactivation par défaut des systèmes de recommandation ;
|
|
Souligne que cette désactivation par défaut est particulièrement souhaitable pour les mineurs ;
|
|
Estime que les utilisateurs devraient être informés clairement de toute modification touchant les systèmes de recommandation ;
|
|
Estime nécessaire que les algorithmes d’intelligence artificielle utilisés par les très grandes plateformes en ligne aux fins d’ordonnancement de contenus et de modération soient rendus publics avant leur mise en service, et à chaque modification substantielle, aux fins de détection par des chercheurs des risques systémiques potentiels induits par leur fonctionnement, moyennant la mise en place de garanties appropriées concernant le secret des affaires ;
|
|
Souhaite que, dans le cadre de la procédure d’audit prévue à l’article 28, les algorithmes d’ordonnancement des contenus et de modération des très grandes plateformes puissent faire l’objet d’audits réguliers de la part d’auditeurs indépendants, et que ces derniers puissent émettre à leur sujet des recommandations auxquelles les très grandes plateformes devraient se conformer, sauf à se justifier ;
|
|
Souhaite que les algorithmes d’intelligence artificielle utilisés par les fournisseurs de services numériques, et en particulier les très grandes plateformes en ligne, fassent l’objet d’une attention particulière dans l’élaboration de la future législation de l’Union sur l’intelligence artificielle ;
|
|
Sur le profilage et la publicité ciblée :
|
|
Considérant que la publicité en ligne peut présenter des risques importants, quand elle concerne des produits ou contenus eux-mêmes illicites ou préjudiciables, ou qu’elle constitue une incitation financière à la publication, à la promotion ou à l’amplification de contenus, services ou activités illicites ou préjudiciables en ligne ;
|
|
Considérant que l’affichage ciblé de publicités en ligne, sur la base de données à caractère personnel, est susceptible de porter préjudice à l’égalité de traitement des citoyens ;
|
|
Considérant qu’une application stricte du règlement général sur la protection des données (RGPD) permettrait de limiter certaines pratiques contestables en matière de publicité ciblée, comme le ciblage publicitaire sur la base de données à caractère personnel inférées à partir des interactions des utilisateurs avec certains contenus ;
|
|
Accueille très favorablement les dispositions visant à améliorer la transparence des systèmes de publicité en ligne sur les plateformes (art. 24 et 30) ;
|
|
Souhaite, afin d’en assurer une meilleure efficacité, une harmonisation minimale de l’affichage signalant le caractère publicitaire de certaines communications ;
|
|
Estime que les utilisateurs devraient avoir accès à la fois aux paramètres de ciblage déterminés par l’annonceur et au détail de leurs données personnelles utilisées pour le ciblage ;
|
|
Estime que l’identité du financeur de la publicité devrait, le cas échéant, être indiquée, en plus de l’identité de l’annonceur, à la fois en temps réel pour chaque publicité spécifique (art. 24) et dans les registres de transparence prévus à l’article 30 ;
|
|
Rappelle que l’usage de données à caractère personnel pour le ciblage publicitaire devrait faire l’objet d’un choix éclairé de la part de l’utilisateur, conformément aux dispositions du RGPD ;
|
|
Demande la désactivation par défaut du ciblage publicitaire pour l’ensemble des utilisateurs, et l’interdiction de la publicité ciblée à destination des mineurs ;
|
|
Sur la réforme du régime de responsabilité :
|
|
Considérant l’utilisation par certaines catégories d’hébergeurs au sens de la directive sur le commerce électronique précitée, notamment les plateformes en ligne, d’algorithmes d’ordonnancement des contenus, et leurs conséquences sur la visibilité de ces contenus ;
|
|
Considérant que le régime actuel de responsabilité des hébergeurs ne rend pas compte du rôle actif ainsi joué par ces acteurs dans le partage et la dissémination des contenus en ligne ;
|
|
Déplore que le règlement ne remette pas en cause le principe de responsabilité limitée des hébergeurs, y compris des plateformes et des très grandes plateformes en ligne ;
|
|
Appelle à nouveau à créer un régime européen de responsabilité renforcée spécifique pour les fournisseurs de service intermédiaire utilisant des algorithmes d’ordonnancement des contenus, à raison de ladite utilisation ;
|
|
Souhaite l’établissement au niveau européen de normes en matière d’éthique et de respect des droits fondamentaux, qui devraient être respectées lors de l’élaboration des algorithmes d’ordonnancement des contenus, de modération et d’adressage de la publicité ciblée utilisés par les fournisseurs de service intermédiaires, selon un principe de legacy et safety by design ;
|
|
Estime que la responsabilité des fournisseurs de services intermédiaires utilisant de tels algorithmes devrait pouvoir être directement engagée en cas de non-respect de ces normes ;
|
|
Sur les modalités de contrôle
|
|
Considérant le maintien dans le règlement du principe du pays d’origine ;
|
|
Considérant qu’en conséquence, les décisions concernant les fournisseurs de services intermédiaires relèvent en dernier recours du coordinateur des services numériques du pays d’établissement du service, hormis pour les très grandes plateformes, pour lesquelles la Commission est habilitée à intervenir directement, notamment en cas de défaut d’action de la part du coordinateur des services numériques compétent ;
|
|
Considérant que la prise de décision concernant la mise en œuvre d’une procédure de surveillance renforcée pour une très grande plateforme par le coordinateur des services numériques compétent, après que le Comité ou la Commission lui a recommandé d’enquêter sur une infraction présumée, n’est enfermée dans aucun délai ;
|
|
Considérant que les dysfonctionnements observés dans la mise en œuvre du mécanisme des autorités cheffes de file prévu par le RGPD ont abouti à une application non uniforme du règlement dans les différents États membres ;
|
|
Considérant en outre l’inégale dotation en moyens humains et matériels des autorités de contrôle nationales, impliquant leur inégale diligence à faire appliquer le règlement ;
|
|
Considérant que les autorités nationales de régulation du numérique ont chacune acquis des compétences sectorielles et une connaissance de l’écosystème précieuses, dans l’optique du contrôle de la mise en œuvre du règlement ;
|
|
Considérant la nécessité d’assurer la pleine effectivité du règlement et de réduire les délais d’enquête, notamment en ce qui concerne les très grandes plateformes ;
|
|
Considérant que les risques systémiques posés par les très grandes plateformes concernent l’ensemble de l’Union ;
|
|
Estime que la Commission devrait dans tous les cas pouvoir se substituer en dernier ressort au coordinateur des services numériques du pays d’établissement du fournisseur de services intermédiaire concerné pour faire cesser une infraction ;
|
|
Estime que la Commission devrait, pour les très grandes plateformes, détenir le monopole du pouvoir d’enquête et de sanction, tout en partageant le pouvoir d’initiative avec le Comité ;
|
|
Remarque toutefois l’insuffisance des moyens humains prévus, au sein de la Commission, pour le contrôle du respect du règlement, au regard du haut degré de technicité requis et de la nécessité de faire appel à des compétences variées, dans des secteurs divers ;
|
|
Appelle donc à une meilleure association des autorités de régulation nationales des pays de destination et des pays d’origine du service aux enquêtes et autres actions de contrôle de la Commission concernant le respect du règlement par les très grandes plateformes, notamment le suivi du respect par ces dernières des engagements pris, en ce qui concerne le territoire national ;
|
|
Estime que, de manière générale, le rôle des autorités de régulation des pays de destination devrait être renforcé, notamment afin qu’elles puissent être interrogées sur des points de droit national par les autorités de régulation des pays d’établissement, et qu’elles puissent être associées aux enquêtes concernant des faits affectant leur territoire, notamment dans le domaine de la consommation ;
|
|
Ajoute que les réseaux des autorités de régulation nationales sectorielles devraient également être mieux associés au contrôle du respect du règlement par les très grandes plateformes, notamment par le biais d’avis sur les rapports de transparence et les rapports d’audit des très grandes plateformes ;
|
|
Sur les délais et l’adaptabilité du règlement
|
|
Considérant l’urgence, pour l’Union européenne, d’établir des normes strictes et ambitieuses en matière de lutte contre les contenus illicites et préjudiciables en ligne, capables à la fois d’améliorer la sécurité de ses propres citoyens, et de constituer un référentiel au niveau international ;
|
|
Considérant l’évolution rapide des technologies et des équilibres de marché dans le monde numérique ;
|
|
Souhaite que le règlement sur les services numériques soit adopté dans les meilleurs délais ;
|
|
S’oppose fermement à toute extension du délai d’applicabilité du règlement, après son entrée en vigueur ;
|
|
Recommande de réduire le délai d’évaluation du règlement et du fonctionnement du Comité respectivement de cinq ans et trois ans à deux ans ;
|
|
Souhaite que les différentes parties prenantes soient invitées à évaluer d’ores et déjà, puis régulièrement, la robustesse du règlement face aux évolutions prévisibles de l’environnement en ligne, notamment le développement des applications des plateformes de mondes virtuels ;
|
|
Invite le Gouvernement à soutenir ces orientations et à les faire valoir dans les négociations à venir.
|