E. ADAPTER LES OBLIGATIONS PESANT SUR LES OPÉRATEURS DE COMMUNICATIONS ÉLECTRONIQUES
1. Supprimer la référence explicite au filtrage des contenus
Par ailleurs, votre commission a souhaité s'en tenir au consensus général trouvé par les professionnels dans le cadre des « Accords de l'Élysée », en matière d'expérimentations de technologies de reconnaissance des contenus et de filtrage.
Cette décision apparaît très sage, en effet, dans la mesure où l'efficacité de ces techniques de filtrage notamment (voir l'encadré page suivante), reste encore mise en doute par nombre des personnes entendues par votre rapporteur, et que l'ensemble des implications de ces mesures, en cas de déploiement en « grandeur nature », ne sont pas encore maîtrisées, en particulier en termes de coûts pour les opérateurs.
Or, contrairement à la voie ainsi tracée par ces accords, le projet de loi prévoit, à l'article 5 , de confier au président du Tribunal de Grande Instance la possibilité d'ordonner aux opérateurs un « filtrage des contenus », afin de mettre fin à toute atteinte à un droit de la propriété artistique occasionnée par le contenu d'un service en ligne.
Afin de rester en cohérence avec la position d'équilibre issue des accords de l'Élysée , votre commission vous proposera de supprimer cette référence explicite au filtrage des contenus dans cet article. En effet, cela n'apporte rien à la rédaction actuelle et introduit même une ambigüité, dans la mesure où n'est ainsi cité que l'un des types de moyens supposés permettre, en l'état actuel des technologies, une suspension des contenus illicites.
2. Encadrer les expérimentations en matière de filtrage
En parallèle, cependant, votre commission propose de confier à l'HADOPI un rôle de suivi et d'évaluation des expérimentations qui seront conduites par les professionnels en matière de technologies de reconnaissance des contenus et de filtrage , conformément aux engagements pris par les signataires des mêmes accords. Elle en rendra compte dans le cadre de son rapport annuel (article 2 - article L. 331-36).
LES TECHNOLOGIES DE FILTRAGE ET DE RECONNAISSANCE DES CONTENUS
Ils ont pour finalité la détection et, le cas échéant, le blocage, de l'accès à des URL ou adresses IP, à certains ports, à certains protocoles ou à certains contenus. - Le filtrage d'URL 42 ( * ) ou d'adresses IP : cela impose de repérer préalablement les adresses à bloquer, ce qui suppose une analyse des flux en temps réel et une grande réactivité ; de tels systèmes sont déjà mis en oeuvre à échelle réduite pour bloquer sur demande judiciaire accès à des sites interdits (pédophilie ou apologie de crimes contre l'humanité...). Limites : la généralisation d'un tel système pourrait poser un problème de responsabilité pour les FAI, car il bloque en général, dans la pratique, l'accès à l'ensemble du serveur, pouvant contenir d'autres éléments non illicites ; en outre, il nécessite une surveillance constante car il est toujours possible de modifier une adresse IP ou une URL bloquée. - Le filtrage de ports : cela consiste à bloquer les ports, notamment ceux, clairement identifiés, qu'utilisent les services de pair-à-pair (P2P). Limites : ce système peut entraîner le blocage de tous les usages du port, y compris légaux, et peut être assez aisément contourné par les internautes (en modifiant les ports initiaux). - Le filtrage de protocoles : cela permet de bloquer certains types d'échanges à partir du repérage des règles qui les régissent voire de leur comportement. Limites : cela peut également bloquer les usages légaux du protocole ; par ailleurs, ce système ne vise que le P2P, mais pas les autres moyens de « piratage ». - Le filtrage de contenus : il s'agit de déceler et de pouvoir bloquer, si elles sont utilisées de façon illicite, des données préalablement marquées quand elles transitent sur les réseaux, en s'appuyant sur des techniques de tatouage ou d'empreintes numériques (voir ci-dessous). Limites : les bases d'empreintes étant très volumineuses, il apparaît difficile de les installer à tous les noeuds du réseau ; elles sont développées par plusieurs sociétés concurrentes dans différents formats ; leur déploiement à grande échelle soulève des questions restant à étudier en termes de coût, d'architecture technique, d'impact sur le comportement des internautes...
Il s'agit d'empêcher ou du moins limiter la mise en ligne de contenus protégés par des tiers non détenteurs de droits. Ces systèmes peuvent se fonder : - sur les empreintes numériques (« fingerprint ») : cela consiste à calculer, à partir de son contenu, l'empreinte (un « condensé numérique caractéristique ») d'un document circulant sur le réseau pour le comparer à une base de données d'empreintes de référence ; l'efficacité de tels outils dépend notamment de la richesse de cette base de données ; - sur le tatouage numérique (« watermarking ») : cela nécessite que le document ait été marqué préalablement à sa diffusion par les ayants droit. Source : rapport de la mission présidée par M. Denis Olivennes (annexe « Considérations techniques ») |
Votre rapporteur rappelle que, bien qu'il puisse parfois susciter des craintes en termes de respect de la vie privée et de la neutralité d'Internet, le filtrage est, comme l'a souligné la « mission Olivennes » dans son rapport, « envisageable au regard des engagements européens de la France et du droit national, s'il est ciblé et mis en oeuvre par une autorité publique, ou contrôlé par un juge » ; « un filtre n'aboutit pas d'ailleurs à une surveillance des réseaux : il ne s'agit que d'un instrument technique » .
Deux récentes décisions prises en Belgique 43 ( * ) et aux États-Unis ont d'ailleurs encadré le recours à un filtrage : outre-Atlantique, le FCC (autorité des télécommunications), a condamné le câblo-opérateur Comcast , le 20 août 2008. Il avait bloqué certains téléchargements de ses abonnés sur les principaux réseaux de pair-à-pair, aux fins de bon écoulement du trafic. Néanmoins, la FCC a admis la légitimité d'un « tri » fondé sur les contenus, à condition que son objectif soit légitime, que sa nature soit transparente et expliquée aux internautes, et enfin que le processus de tri soit proportionné au regard de son objectif et ciblé sur les contenus illicites.
* 42 Le terme « URL », de l'anglais « Uniform Ressource Locator » (soit localisateur uniforme de ressource) est une chaîne de caractère informellement appelée une « adresse web ».
* 43 Décision du tribunal de premier instance de Bruxelles du 29 juin 2007, « Scarlet [fournisseur d'accès à Internet belge] c. SABAM (société belge des auteurs, compositeurs et éditeurs) » ; cette décision fait l'objet d'un appel.