SÉANCE

du lundi 12 juin 2023

97e séance de la session ordinaire 2022-2023

Présidence de M. Roger Karoutchi, vice-président

Secrétaires : Mme Esther Benbassa, M. Daniel Gremillet.

La séance est ouverte à 16 heures.

Le procès-verbal de la précédente séance, constitué par le compte rendu analytique, est adopté sous les réserves d'usage.

Reconnaissance biométrique

M. le président.  - L'ordre du jour appelle la discussion de la proposition de loi relative à la reconnaissance biométrique dans l'espace public, présentée par MM. Marc-Philippe Daubresse et Arnaud de Belenet, à la demande du groupe Les Républicains.

Discussion générale

M. Marc-Philippe Daubresse, auteur de la proposition de loi .  - En octobre 2020, à l'initiative de son président, la commission des lois a créé une mission d'information sur la reconnaissance faciale, une technologie qui se développe rapidement et qui polarise l'opinion publique, entre les tenants d'un moratoire sur toutes les technologies et ceux qui mettent en exergue leurs bénéfices pour garantir notre sécurité.

Le rapport, confié à Arnaud de Belenet, Jérôme Durain et moi-même, a été adopté à l'unanimité. Il visait à combler le vide juridique, car nous sommes dépendants du règlement général sur la protection des données (RGPD) et de la future directive européenne. Or nous voulons une interdiction de principe du recours à cette technique en temps réel dans l'espace public, tout en garantissant la sécurité des grands événements.

Cette technologie soulève de nombreux enjeux éthiques en matière de liberté, de sécurité et de souveraineté.

Les deux premières entreprises mondiales spécialistes de cette technologie sont françaises. La reconnaissance faciale est utile pour contrôler l'accès et le parcours des personnes, par exemple pour le passage de frontière - on parle d'authentification - ou pour assurer la sécurité de grands événements, pour repérer quelqu'un au milieu d'une foule -  on parle alors d'identification.

Il faut distinguer les opérations de police administrative et de police judiciaire. Aujourd'hui, les usages pérennes en France sont très limités : seuls le système Parafe et le traitement de certaines opérations judiciaires permettent de recourir à de telles techniques.

Données sensibles au sens du RGPD, les données biométriques font l'objet d'une interdiction de traitement, sauf exception. Avec Arnaud de Belenet, nous avons voulu définir un cadre qui écarte le risque d'une société de surveillance, un régime de contrôle, ainsi que des interdits : notation sociale ; catégorisation des individus en fonction de l'origine ethnique, du sexe ou de l'orientation sexuelle, sauf recherche scientifique ; analyse d'émotions, sinon à des fins de santé ou de recherche ; surveillance biométrique à distance en temps réel dans l'espace public, sauf exceptions très limitées.

Nous avons posé trois principes : subsidiarité, contrôle humain systématique et transparence, pour que personne ne soit reconnu à son insu.

Nous avons opté pour une expérimentation, en la réservant aux cas exceptionnels. D'où cette proposition de loi, sur le modèle de la loi du 30 octobre 2017 renforçant la sécurité intérieure et la lutte contre le terrorisme (Silt). L'expérimentation durerait trois ans, puis le Parlement déciderait de la suite.

Outre un contrôle parlementaire, nous proposons une évaluation par un comité scientifique et éthique dont les rapports seraient publics. Nous proposons une autorisation des usages a priori. En cas d'utilisation par les forces de sécurité intérieure, l'autorisation relèverait soit du magistrat pour la police judiciaire, soit du préfet pour la police administrative. Le pouvoir de contrôle de la Commission nationale de l'informatique et des libertés (Cnil) serait réaffirmé, tant pour les contrôles priori qu'a posteriori.

La proposition de loi définit les lignes rouges et détermine les quatre cas d'usages pouvant être expérimentés : la recherche d'auteurs ou de victimes des infractions les plus graves, dans un cadre spatio-temporel limité, a posteriori et de manière subsidiaire ; le traitement a posteriori par les services du premier cercle des informations ainsi obtenues uniquement pour la protection de l'indépendance nationale et de l'intégrité du territoire, la défense nationale, la prévention du terrorisme ; la création d'un cadre juridique par exception de recours limité à la reconnaissance biométrique en cas de menace grave préalablement identifiée pour sécuriser de grands événements - avec de nombreuses garanties, notamment sur le nombre de caméras et la formation des agents ; enfin, l'autorisation du juge judiciaire de recourir à de telles techniques pour les infractions les plus graves.

Un rapport annuel sera remis au Parlement, avant un rapport final d'évaluation au bout de trois ans. Philippe Bas a amélioré la lisibilité en créant des blocs de garanties et d'interdits. Il a interdit l'identification à distance sans consentement. Seul le législateur pourra autoriser le recours à ces technologies, à la condition d'un avis préalable de la Cnil ou de la Commission nationale de contrôle des techniques de renseignement (CNCTR) et d'un passage devant le Conseil d'État.

Le rôle de contrôle et d'autorisation du Parlement doit être central. L'expérimentation, sur le modèle de la loi Silt, montre l'utilité de ce dispositif. Le rapporteur a ajouté un bloc intéressant en matière de renseignement. Nous nous réjouissons de ces ajouts, qui respectent les principes de subsidiarité et de proportionnalité.

J'ai été maire pendant près de trente ans. (Mme Éliane Assassi s'exclame.) Mon souvenir le plus douloureux est d'avoir dû annoncer à une famille de ma commune qu'un jeune de 27 ans avait été assassiné au Bataclan. Je m'étais juré d'agir en tant que parlementaire pour que cela ne se reproduise jamais. Bien sûr, le risque zéro n'existe pas. Nous voulons avancer en respectant les libertés individuelles, conformément à la position du Sénat. (Applaudissements sur les travées des groupes Les Républicains et UC)

M. Philippe Bas, rapporteur de la commission des lois .  - (Applaudissements sur les travées des groupes Les Républicains et UC) Mon travail a été facilité par la qualité de cette proposition de loi, inspirée de la mission Daubresse, de Belenet et Durain, dont le rapport avait été adopté à l'unanimité. Ce n'était pas joué d'avance, tant le sujet est sensible, mais ces recommandations se sont imposées grâce au discernement, à la prudence, aux scrupules et aux doutes de leurs auteurs.

Notre ambition est simple : protéger efficacement la vie privée des Français et garantir leurs libertés, sans renoncer aux possibilités offertes par l'intelligence artificielle pour sauver des vies menacées par le terrorisme ou la grande criminalité. La voie était étroite, mais après Marc-Philippe Daubresse et Arnaud de Belenet, la commission des lois n'avait plus qu'à s'y engouffrer en resserrant le cadre juridique.

Cette technologie permet de reconnaître une personne grâce à la mise en équation numérique de son visage grâce aux données déjà détenues. On peut ainsi détecter les personnes se prévalant d'une fausse identité. Dès lors, les forces de l'ordre peuvent agir immédiatement ou posteriori, lors d'une enquête.

Les avantages et les risques de cette technologie extraordinairement intrusive sont immenses. Dans un régime dictatorial, elle peut devenir l'instrument d'un contrôle social généralisé. Mais au sein d'une démocratie respectueuse de l'État de droit, et à titre exceptionnel, elle présente un intérêt réel, à condition que les règles d'encadrement soient à la hauteur des libertés que le législateur, et en particulier le Sénat, doit faire prévaloir.

Pour examiner ce texte, j'avais à l'esprit certaines références. La marche de la science apporte des découvertes ambivalentes, le meilleur comme le pire, de la maîtrise du feu à celle de l'atome. Mais comme l'a dit Rabelais, « science sans conscience n'est que ruine de l'âme ».

Il nous revient d'apporter la maîtrise nécessaire pour la reconnaissance faciale biométrique. Au sein de l'Union européenne, un règlement est en gestation, s'inspirant de nos pratiques. Il pourrait aboutir en 2025, mais n'attendons pas cette échéance. Comme l'ont fait Bernard Kouchner ou Simone Veil en matière de bioéthique, la France peut et doit être précurseure. Nous devons affirmer des principes fondamentaux en matière de liberté, dont d'autres pourront s'inspirer.

Bien sûr, nous avons tenu compte de réflexions au sein de l'Union européenne, mais aussi de la Cnil. Le rapport des députés Gosselin et Latombe y contribue. Il est temps d'engager un processus législatif fécond.

Premier principe, absolu, ayant guidé notre action : interdire toute exploitation des images de vidéosurveillance à la manière d'un contrôle social à la chinoise. Sauf autorisation expresse du législateur, la reconnaissance faciale en temps réel à distance sans consentement sera interdite, tout comme l'exploitation posteriori par reconnaissance faciale d'images déjà détenues par la justice ou la police.

Les dérogations devront être prévues par le Parlement et seront expérimentales. Elles devront obéir à des principes de proportionnalité, de nécessité et de subsidiarité. Les logiciels de traitement seront configurés sous la responsabilité de l'État. La Cnil sera consacrée comme autorité régulatrice des usages de l'intelligence artificielle et sa composition sera complétée pour associer les autorités de régulation de l'audiovisuel et des télécommunications.

Le contrôle d'accès par la reconnaissance faciale pourra être utilisé dans certains grands événements, sous certaines conditions : limitation à certaines catégories d'intervenants, à certains lieux, information préalable des personnes concernées, exclusion des riverains, et pour les menaces les plus graves.

La reconnaissance faciale pourra être utilisée pour les enquêtes judiciaires, après autorisation législative, notamment en vue d'identifier des personnes inscrites dans les fichiers d'antécédents judiciaires. Elle sera utilisée également pour les cas les plus graves : le terrorisme, les crimes les plus graves, la disparition de mineurs, la défense des intérêts fondamentaux de la Nation. La justice pourra recueillir des images en temps réel sur autorisation d'un magistrat, qui ne pourra être renouvelée que par le juge des libertés et de la détention (JLD).

La reconnaissance faciale pourra être utilisée pour des opérations de police administrative sur décision du Premier ministre, après avis de la CNCTR et sous le contrôle du Conseil d'État.

Ces questions, apparemment techniques et juridiques, sont en réalité éthiques et politiques. La commission des lois conforte ce texte équilibré tout en renforçant ses garanties.

Son caractère expérimental permettra de suivre l'évolution d'une technologie en cours de développement et vérifier si nous sommes dans le droit chemin. Avec humilité, prévoyons que notre oeuvre puisse être encore améliorée à la lumière de l'expérience. (Applaudissements sur les travées des groupes Les Républicains et UC ; M. Jean-Claude Requier applaudit également.)

Mme Dominique Faure, ministre déléguée chargée des collectivités territoriales et de la ruralité .  - La reconnaissance biométrique est une technologie aussi puissante que sensible.

Ce sujet nous impose prudence et mesure. Le Gouvernement est déterminé à faire avancer rapidement les sujets de transformation écologique, de formation des jeunes ou de souveraineté énergétique. Mais sur la reconnaissance biométrique, il est justifié de différer la décision.

Le Sénat vient de voter le cadre juridique du recours à l'intelligence artificielle lors des jeux Olympiques et Paralympiques (JOP). Le Gouvernement a fait preuve de prudence en encadrant la pratique et en excluant la reconnaissance faciale. Le Sénat, après avoir envisagé un élargissement, a renvoyé ce sujet à un débat de fond.

Le Sénat a certes mené un travail important avec sa mission d'information, mais le Gouvernement estime que l'équation n'a pas changé depuis l'examen de la loi relative aux JOP.

Nous avons un problème de temporalité. Politique, d'abord, alors que le règlement sur l'intelligence artificielle est en cours d'examen. De cohérence, ensuite : le règlement européen devra être adopté d'ici à la fin de l'année et traduit en droit interne d'ici 2025, or vous prévoyez une expérimentation de trois ans. Je sais que vous êtes attachés à fournir un cadre juridique stable et clair. Légiférer maintenant nous ferait rater la cible : les industriels ne peuvent se mettre en conformité si le cadre doit encore évoluer ! Opérationnel, enfin : toutes nos forces sont mobilisées pour les JOP, pour être au rendez-vous de l'expérimentation de l'intelligence artificielle, pour laquelle vous nous avez donné mandat. L'organisation et la mise en cohérence des acteurs sont complexes : il ne faudrait pas distraire les forces de sécurité de cet enjeu majeur.

L'expérimentation serait en outre décevante, car, en trois ans, le Gouvernement n'aurait ni le temps ni les ressources pour s'y engager pleinement. Pis : il adopterait le raisonnement des entreprises. Alors que le cadre français est en extinction, le bon sens commande d'appliquer le règlement européen, une fois examiné.

Au demeurant, recourir à ces technologies pour des opérations de police administrative et judiciaire s'inscrit dans un contexte sécuritaire plus large. La biométrie ne constitue qu'une brique.

Vos auditions ont confirmé qu'il était difficile de se prononcer sur le recours à la biométrie sans vision d'ensemble.

La reconnaissance faciale soulève de graves questions. Qui décide de la dangerosité d'une personne ? Quels services mettraient en oeuvre cette technologie, alors que 98 % du parc est privé ? Un cadre juridique en décalage risque de rater sa cible.

Si je salue le travail du rapporteur, j'estime que l'État est le mieux à même d'intervenir sur ce sujet.

M. Marc-Philippe Daubresse.  - Non, c'est le Parlement !

Mme Dominique Faure, ministre déléguée.  - Nous regrettons l'absence de distinction entre la reconnaissance faciale en temps réel et la recherche d'un individu dans le cadre d'une enquête.

La biométrie ne peut relever en totalité de la loi, car cela rigidifierait le traitement de données. Nous sommes à rebours des exigences européennes d'interopérabilité et de fiabilisation des fichiers, à rebours de la recommandation 18 de votre rapport.

Si le Gouvernement salue la volonté de votre assemblée et en particulier l'engagement du sénateur Daubresse, nous ne sommes pas convaincus de l'utilité de légiférer dès à présent. Un projet de loi capitalisant sur vos travaux serait préférable.

Cela étant, nous émettrons un avis de sagesse sur ce texte.

M. Philippe Bas, rapporteur.  - Très bien !

Mme Marie-Pierre de La Gontrie.  - Seulement un avis de sagesse ?

M. Arnaud de Belenet .  - Houla ! (Sourires) C'est souvent la réaction que suscite l'évocation de la reconnaissance biométrique. Est-ce pour cela que le sujet n'a pas été intégré lors des échanges sur les JOP ? Cela me fait penser à ce personnage de Léonore Confino qui appelle à brûler la langue de bois et à avoir le courage d'affronter les débats irrationnels. Ce que nous faisons.

Merci, madame la ministre, d'envisager une évolution. Il arrive que certaines initiatives gouvernementales prennent la forme d'une proposition de loi faisant l'objet d'échanges avec le Parlement. (Sourires)

Les pouvoirs publics ne sauraient laisser ce sujet à la main d'opérateurs privés. Nous devons choisir la société dans laquelle nous souhaitons vivre et non la subir.

Je remercie le président Buffet de nous avoir confié cette mission, et MM. Daubresse et Durain pour le travail mené ensemble. Cet équilibre a conduit un très grand nombre de nos collègues Les Républicains et UC à cosigner ce texte. Le groupe UC le votera.

Saluons aussi la position rationnelle, pondérée et unanime de la commission des lois lors de la remise de notre rapport. Je remercie notre rapporteur pour son expertise, son exigence et son travail. Ma reconnaissance à son égard n'est pas seulement faciale. (Sourires)

La proposition de loi transcrit les travaux de la mission d'information et poursuit l'objectif de régulation et d'autorisation exceptionnelle, encadrée. Le principe est l'interdiction, l'autorisation l'exception.

La commission a précisé l'expérimentation : l'article 1er interdit l'usage à des fins d'identification dans un lieu public ou accessible au public, sauf consentement. Cranter cet interdit n'est pas seulement nécessaire, c'est un marqueur civilisationnel, un choix de société. Nous faisons ici un choix politique clair : refuser la société de surveillance, et mieux, lui faire obstacle. En corollaire, l'interdiction de la notation et de la catégorisation est inscrite dans la loi.

Les expérimentations sont soumises à un contrôle strict : limitées à trois ans, avec contrôle des usages, autorisation spéciale par un magistrat ou la CNCTR et rapports réguliers.

S'agissant des usages judiciaires, la commission des lois a réservé la reconnaissance faciale aux infractions d'une exceptionnelle gravité. Elle a resserré le périmètre de l'expérimentation, a posteriori comme en temps réel, aux cas les plus graves - terrorisme, trafic d'armes ou recherche de personnes disparues. Elle a également renforcé le régime de contrôle et soumis l'expérimentation à une autorisation expresse de l'autorité judiciaire, que seul le JLD pourra renouveler.

S'agissant des usages administratifs, l'expérimentation ne pourra concerner les habitants des zones concernées. Seul l'État pourra mettre en place un traitement biométrique. Il y va aussi de notre souveraineté : les technologies ne doivent pas quitter notre territoire faute de législation.

La commission a souhaité être encore plus restrictive et exigeante sur les conditions de l'expérimentation. J'y vois un gage donné à ceux qui pourraient s'inquiéter pour nos libertés. C'est une bonne façon de d'entamer le parcours de ce texte nécessaire. (Applaudissements sur les travées des groupes UC et Les Républicains)

M. Jean-Claude Requier .  - J'ai eu un a priori mitigé en découvrant cette proposition de loi. Lors du débat sur le projet de loi JOP, nous avions admis l'utilisation de la vidéoprotection intelligente avec reconnaissance par algorithmes, suivant les recommandations du rapport de MM. Daubresse, de Belenet et Durain. Il m'avait semblé qu'une limite avait été fixée, celle de ne pas aller jusqu'à la biométrie, que je considère comme une chimère.

Pourquoi ne pas laisser vivre l'expérimentation sur les algorithmes avant d'envisager une nouvelle loi, d'autant que les dérives sont nombreuses ? Je pense à la Chine, qui a mis en place un système étatique de « crédit social », qui analyse le comportement des personnes dans l'espace public et leur attribue une note. On se croirait dans un film d'anticipation !

Pour le groupe RDSE, foncièrement attaché aux libertés, les limites fixées par le rapporteur et les auteurs sont à saluer : je pense à l'interdit de la catégorisation et de la notation des personnes ou de la reconnaissance biométrique en temps réel et a posteriori dans les lieux publics. Mais ces garde-fous seront insuffisants le jour où certains voudront les faire sauter.

Les expérimentations proposées poursuivent certes des buts légitimes, comme la sécurisation des JOP.

Un comité scientifique et éthique doit accompagner le dispositif, ce que prévoit le texte. Je suis rassuré que la Cnil soit associée, en tant que chef de file de régulation de l'intelligence artificielle. Le texte semble équilibré et contenir des garde-fous. Une majorité du groupe RDSE le votera. (Applaudissements au banc des commissions ; M. Marc-Philippe Daubresse applaudit également.)

M. Stéphane Le Rudulier .  - (Applaudissements sur les travées du groupe Les Républicains) Ce premier encadrement législatif de l'utilisation de la technologie biométrique vise à garantir un juste équilibre entre outils technologiques de sécurité collective et respect de l'État de droit et des libertés fondamentales.

La proposition de loi est le fruit d'un travail parlementaire abouti - trois rapports ces dernières années - parfait par le travail du rapporteur Bas. Le Sénat a l'occasion de faire entrer la France dans le nouveau millénaire en matière de sécurité.

Certains redoutent un soi-disant État policier qui s'introduirait dans notre intimité pour nous espionner, voire nous punir ; après les vaccins nous inoculant des puces brevetées par Bill Gates, la reconnaissance faciale dans l'espace public violerait notre intimité. Certes, il faut un encadrement strict. Mais nous cédons chaque jour à des multinationales étrangères les données personnelles récoltées par nos téléphones, nos enceintes connectées, nos voitures intelligentes -  et nous refuserions à l'État d'assurer notre protection dans l'espace public par des moyens technologiques, sous le contrôle de la Cnil et du Parlement ? La reconnaissance faciale et biométrique n'est qu'une goutte d'eau dans les avancées de l'intelligence artificielle.

M. Thomas Dossus.  - Nous voilà rassurés !

M. Stéphane Le Rudulier.  - Nous ne pouvons rester spectateurs impuissants, rétifs au progrès.

M. Thomas Dossus.  - Quel progrès...

M. Stéphane Le Rudulier.  - La France doit être au rendez-vous de l'histoire. Le Royaume-Uni, Israël, les États-Unis le sont.

Permettez-moi d'être inquiet devant le sous-équipement en matière de vidéoprotection des principales villes françaises, où se concentrent la criminalité, la violence et le terrorisme : 19 caméras pour 10 000 habitants à Marseille et à Paris, 11 à Lyon, 9 à Toulouse ! À Londres et à Berlin, c'est respectivement 180 et 110. Comment imaginer qu'on accueille la Coupe du monde de rugby, une messe du pape ou encore les Jeux dans des villes dépourvues de vidéosurveillance ? Nous devons garantir une protection dans l'espace public à l'échelle de notre attractivité. La France est le premier pays touristique du monde, la gare du Nord la plus fréquentée d'Europe. On ne peut lutter contre les risques du XXIe siècle avec des outils désuets du XXe.

Clemenceau disait : « Il faut savoir ce que l'on veut. Quand on le sait, il faut avoir le courage de le dire ; quand on le dit, il faut avoir le courage de le faire. » (Applaudissements sur les travées du groupe Les Républicains ; M. Arnaud de Belenet applaudit également.)

M. Pierre-Jean Verzelen .  - Nous sommes devant le fait accompli : nous devons réguler et encadrer l'usage de la reconnaissance biométrique. Face à l'essor fulgurant de l'intelligence artificielle, nous avons besoin d'un droit solide et évolutif pour protéger nos libertés individuelles.

Ce débat rappelle celui sur la vidéosurveillance. La reconnaissance biométrique existe, elle peut être utile pour améliorer la sécurité lors de grands événements. Fixons nous-mêmes les règles et les limites.

C'est aussi un enjeu industriel et de souveraineté : matériel et logiciels doivent être français ou européens. Les Google, Facebook et autres TikTok, qui captent nos données à longueur de journée, sont américaines ou chinoises. Ne prenons pas le même retard sur la reconnaissance biométrique.

Nous ne pouvons attendre 2025 que le futur règlement européen entre en application. Tout va très vite, nos voisins légifèrent déjà. Nous ne sommes pas les États-Unis. Nous ne sommes pas non plus la Chine, où sévissent des millions de caméras intelligentes.

M. Thomas Dossus.  - Pas encore...

M. Pierre-Jean Verzelen.  - Nous refusons la société de surveillance. Cette proposition de loi a le mérite de mettre le pied dans la porte. (M. Thomas Dossus le déplore.) Le rapporteur a renforcé les garanties.

L'article premier pose le cadre strict des interdictions. L'expérimentation sur trois ans va dans le bon sens : il faut évaluer avant toute pérennisation. La subsidiarité est gage de préservation des libertés ; elle est limitée au terrorisme, au crime organisé et à la préservation des intérêts de la Nation.

Le groupe Les Indépendants soutient les grandes orientations de ce texte, qui est une première étape. (Applaudissements sur plusieurs travées des groupes Les Républicains et UC)

M. Thomas Dossus .  - Lors de la loi sur les jeux Olympiques et Paralympiques, Marc-Philippe Daubresse appelait à « créer un cadre juridique expérimental permettant, par exception et de manière subsidiaire, le recours ciblé et limité dans le temps à des systèmes de reconnaissance biométrique. » Ces circonvolutions résument les faux-semblants de ce texte. En matière de surveillance de masse, les précautions initiales finissent toujours par céder le pas à la généralisation. Ainsi des prélèvements ADN, autorisés en 1998 pour les seuls condamnés définitifs pour agression sexuelle : 25 ans plus tard, trois millions de personnes sont enregistrées au fichier national des empreintes génétiques, la plupart non condamnées, et un manifestant qui refuse la prise d'empreintes génétiques s'expose à une peine de prison ! Nous ne pouvons accepter le fichage ADN de militants politiques. Idem pour la vidéosurveillance, devenue massive.

Cette expérimentation aussi sera généralisée, soyons en sûrs. Nos libertés publiques comptent peu pour les apprentis sorciers de la société de surveillance. À peine votée une loi d'exception sur la surveillance algorithmique durant les Jeux que les fanatiques du flicage proposent déjà d'aller plus loin. Comme toujours, la lutte contre le terrorisme sert de faux-nez à la surveillance globale. Qu'importe que l'ONU dénonce cette justification, que la Défenseure des droits pointe le risque d'atteinte au respect de la vie privée et à la protection des données, que le Massachusetts Institute of Technology (MIT) révèle les préjugés sexistes et racistes de ces technologies !

Ce texte est hypocrite. Son article 1er pose un cadre d'interdiction, assorti d'un contrôle de la Cnil ou de la CNCTR, mais le reste du texte se résume à une liste d'exceptions. Un prochain gouvernement pourra ajouter à souhait des exceptions supplémentaires. Accepter la prolifération de ces technologies, c'est préparer leur généralisation. Beau cadeau de bienvenue à un futur gouvernement plus autoritaire.

Ceux qui sont attachés au premier terme de notre devise républicaine ont de quoi être effrayés. Les garde-fous n'y changeront rien. Les dérives politiques de la surveillance policière sont déjà visibles, avec la surveillance et la mise sur écoute de militants écologistes.

L'enjeu est aussi économique, avec l'appel à développer des champions français de la techno-sécurité. Vous défendez une société du fichage, du flicage, un continuum de sécurité qui considère tout, jusqu'au phénotype, comme une donnée. Le GEST votera contre ce texte.

Mme Nicole Duranton .  - (Applaudissements sur les travées du RDPI) Émanation de la mission d'information de la commission des lois, ce texte fixe des lignes rouges contre une société de surveillance et prévoit d'expérimenter de nouveaux cas d'usage de la reconnaissance biométrique dans l'espace public.

L'opinion est polarisée, entre ceux qui craignent les atteintes aux libertés et ceux qui attendent des bénéfices sécuritaires. Cette technologie n'est certes pas un outil anodin et relève d'un choix de société. Les applications possibles sont illimitées, dans tous les actes de la vie courante. Ne pas instaurer de garde-fous est dangereux.

Nous voyons les risques de l'utilisation par un régime totalitaire de cette technologie contre ses citoyens. En Chine, la reconnaissance faciale rythme le moindre acte de la vie quotidienne, permet d'identifier les élèves qui sèchent les cours ; à Hong Kong et dans le Xinjiang, elle est devenue une arme politique.

L'expérimentation prévue par ce texte nous alerte. Le secrétaire général de la Cnil appelle à faire preuve d'une extrême prudence et note que la proposition de loi élargit considérablement les cas d'usage. Choisir d'expérimenter, c'est déjà choisir de créer.

La commission des lois maintient, contre ces recommandations, la reconnaissance en temps réel, une rupture fondamentale selon la Cnil, alors que nous n'avons pas de recul sur les autres cas d'usage.

Sans oublier les risques : erreur, discrimination, inhibition dans l'exercice des droits, sécurité informatique.

Prenons le temps de tester les caméras augmentées sans reconnaissance faciale, en application de l'article 10 de la loi du 19 mai 2023 relative aux JOP. Attendons le bilan de cette expérimentation avant d'aller plus loin.

Le RDPI votera contre ce texte. (Applaudissements sur les travées du RDPI)

M. Jérôme Durain .  - (Applaudissements sur les travées du groupe SER) Nous voici réunis, un lundi au soleil, sur un sujet qui mériterait davantage d'attention.

M. Philippe Bas, rapporteur.  - C'est mieux qu'un mardi sous la pluie !

M. Jérôme Durain.  - Dans le sillage du lancement de ChatGPT, l'intelligence artificielle rencontre le succès. Cela risque de ne pas être le cas de cette initiative parlementaire : une simple proposition de loi, sans étude d'impact ni soutien du Gouvernement.

Récemment, nous débattions de la vidéoprotection algorithmique durant les jeux Olymmpiques et Paralympiques, et répétions avec sincérité que non, il n'y aurait pas de reconnaissance faciale pendant les Jeux, en raison des réticences sociétales notamment. Plus pragmatiquement, il est déjà trop tard pour être opérationnel d'ici là.

« Nous nous félicitons que la ligne rouge de la reconnaissance faciale n'ait pas été franchie dans le projet de loi déposé par le Gouvernement » déclarait la rapporteure. « Je suis opposé à la reconnaissance faciale », déclarait Gérald Darmanin en commission. « Nous ne voulons pas de la reconnaissance faciale ni de l'utilisation de données et de système d'identification biométrique pour ces Jeux », affirmait Amélie Oudéa-Castéra. Mais ces déclarations ont peut-être une date limite de validité...

J'ai moi-même signé le rapport de la commission des lois, avant de refuser la proposition de loi qui en découlait. La reconnaissance faciale, telle qu'elle est perçue par les auteurs du texte, n'est pas un danger en soi. Nous l'utilisons déjà, pour déverrouiller un téléphone par exemple. Un règlement européen est en préparation : cela paraît être l'échelon le plus adapté. Le rapporteur ne veut pas attendre ; j'estime, pour ma part, que rien ne sert de se précipiter, que le sujet mériterait un débat national - pourquoi pas une convention citoyenne ? Fervent défenseur de la démocratie parlementaire, je crois nécessaire d'associer les citoyens quand l'acceptabilité est essentielle.

C'est pourquoi le groupe SER s'oppose, à ce stade, à cette proposition de loi : l'heure n'est pas venue.

En outre, l'effet cliquet n'est jamais loin, comme le rappelle la Cnil. Nous repoussons la surveillance à la chinoise comme nous le faisions hier pour l'internet chinois, dont certains jalousent aujourd'hui la capacité à protéger les mineurs ou censurer des contenus. Qu'en sera-t-il en cas de changement politique en France ?

Méfions-nous du solutionnisme technologique. Utile en cas de menace terroriste identifiée ou de recherche de personnes dangereuses précises, la reconnaissance faciale ne fera pas disparaître les menaces, comme la vidéoprotection n'a pas fait disparaître la criminalité - la Cour des comptes ne s'est pas privée de le rappeler.

La vidéoprotection comme la reconnaissance facile ne vont pas sans intervention humaine. Aucune caméra n'aurait pu empêcher des évènements récents. Un acteur du renseignement me disait, trivialement, qu'identifier l'auteur d'une dégradation ne répare pas la voiture...

Un autre expert soulignait le coût de la reconnaissance faciale, après les milliards dépensés pour la vidéoprotection. Il reviendra au Gouvernement d'articuler ces solutions.

Ce texte n'est pas mauvais, il a ses vertus et les enrichissements du rapporteur sont indéniables. Mais après avoir tous répété que la reconnaissance faciale ne serait pas utilisée pour les Jeux, ce débat est prématuré. Avançons conjointement avec l'Europe. Le groupe SER ne votera pas ce texte. (Applaudissements sur les travées du groupe SER)

Mme Éliane Assassi .  - Si la surveillance des populations par l'État est ancienne, elle s'est massifiée et banalisée. Fichage massif de citoyens, de syndicalistes et de militants, vidéosurveillance incontrôlée, drones, marquage de manifestants, activation à distance des téléphones, scanners corporels : la panoplie sécuritaire s'accroît, dans l'apathie générale.

Ce qui hier relevait de la dystopie se concrétise, sans débat public. Sous couvert d'écarter la société de surveillance, la proposition de loi instaure cette surveillance. Les Jeux et autres méga-événements sont les chevaux de Troie de ces politiques.

Sous couvert d'expérimentation, ce texte banalise la vidéosurveillance automatisée. Massive, elle passe par la reconnaissance faciale en temps réel. On reconnaît son caractère intrusif, mais on juge impossible de s'en priver. Selon M. le rapporteur, ...

M. Philippe Bas, rapporteur.  - Merci !

Mme Éliane Assassi.  - ... « il ne faut pas nous attarder sur les dangers réels de cette technologie en matière d'atteinte à la vie privée, sur les risques de développement d'une société de surveillance à la chinoise ou encore sur les erreurs possibles d'identification, car elle présente des avantages dont il serait dommage de se priver. Elle permet notamment de prévenir des attentats ou encore de retrouver des criminels ».

Elle est accessoirement source de juteux revenus pour de nombreux acteurs privés, avec un marché qui pèsera 76 milliards de dollars dans le monde en 2025.

Nous voulons au contraire débattre des risques de discrimination, d'erreurs, d'atteintes aux libertés. La Cnil souligne que les femmes et les personnes de couleur sont moins bien identifiées par l'intelligence artificielle. Les comportements dits suspects ne font que traduire des choix politiques discriminatoires, qui ciblent les personnes qui sont le plus dans la rue. Humaine ou algorithmique, l'interprétation est toujours guidée par des critères sociaux et moraux.

Toutes les mesures d'exception ont fini par entrer dans le droit commun. Voilà vingt ans que nous sommes enfermés dans des politiques sécuritaires dont l'efficacité n'a pas été prouvée. Les outils de surveillance se renforcent, les lois se durcissent, sans débat public.

Mireille Delmas-Marty décrit la nouvelle forme de l'État autoritaire, « d'une autorité grise et pénétrante qui envahit chaque repli de la vie, autorité indolore et invisible et pourtant confusément acceptée ». Ne laissons pas l'exigence de sécurité briser le rêve de liberté. Nous voterons contre cette proposition de loi. (Applaudissements sur les travées du groupe CRCE)

M. Gilbert Favreau .  - (Applaudissements sur les travées du groupe Les Républicains) « La langue est la meilleure ou la pire des choses », disait Ésope. Cela s'applique à la reconnaissance biométrique, qui peut être un outil précieux mais aussi servir un régime totalitaire. Son usage fait la une de l'actualité, à quelques mois de la Coupe du monde de rugby et des Jeux. Faut-il en avoir peur ?

Le 16 avril dernier, l'Iran annonçait un système de reconnaissance faciale pour traquer les femmes qui ne portent pas le voile. En Chine populaire, les autorités peuvent identifier chaque individu dans chaque rue, connaître son solde bancaire, arrêter celui qui n'aurait pas payé ses impôts ou réglé une amende. L'américain ChatGPT bouleverse notre rapport à la connaissance.

La question de la reconnaissance biométrique s'est posée à nous lors de l'examen du projet de loi relatif aux JOP. Il serait terrible que le terrorisme et le crime organisé ternissent cet événement. Nous avons pris conscience du vide juridique que cette proposition de loi vient combler. J'en remercie MM. Daubresse, de Belenet et Retailleau.

Un rapport d'information de la commission des affaires européennes du 30 mars 2023 a qualifié de pratique à haut risque la reconnaissance biométrique et prôné son interdiction totale, sauf raison très exceptionnelle. Ce texte en tient compte, traçant plusieurs lignes rouges dont l'interdiction de catégorisation, de notation et de reconnaissance dans l'espace public. Philippe Bas y a ajouté l'interdiction de l'identification posteriori, garantie de maintien des libertés contre la surveillance généralisée.

Il faut toutefois, contre le terrorisme et la criminalité grandissante, se doter de tous les moyens technologiques, d'où l'expérimentation proposée durant trois ans, avec avis de la Cnil et de la CNCTR. L'utilisation d'images en temps réel serait limitée aux actions antiterroristes. Les services de renseignement du premier cercle pourront utiliser la reconnaissance faciale dans certains cas. Pour ce qui est des enquêtes judiciaires, une autorisation de l'autorité judiciaire sera nécessaire. Enfin, pour des évènements particuliers comme les Jeux, le système pourra être déployé préventivement en cas de menace grave.

Ce texte, qui arrive à point nommé, trouve le bon équilibre entre garantie des droits fondamentaux et protection efficace de nos concitoyens. Espérons qu'il servira d'exemple à nos voisins européens.

La commission des lois a élaboré un texte qui prend en compte, de manière didactique, les préoccupations légitimes des élus. Il a été approuvé à l'unanimité par la commission, c'est pourquoi je le voterai. (Applaudissements sur les travées du groupe Les Républicains et au banc des commissions ; M. Arnaud de Belenet applaudit également.)

Discussion des articles

ARTICLE 1er

M. le président.  - Amendement n°2, présenté par MM. Dossus, Benarroche, Breuiller et Dantec, Mme de Marco, MM. Fernique, Gontard, Labbé et Parigi, Mme Poncet Monge, M. Salmon et Mme M. Vogel.

I.  -  Alinéa 5

Après le mot :

biométriques

insérer les mots :

, notamment sur le fondement de leur origine, de leur sexe, de leur orientation sexuelle, de leur comportement social, de leurs convictions philosophiques ou religieuses, de leur capacité à s'exprimer dans une langue autre que le français, de leur appartenance ou de leur non-appartenance, vraie ou supposée, à une ethnie, une Nation, une prétendue race ou une religion déterminée

II.  -  Compléter cet article par un alinéa ainsi rédigé :

« Tout système de reconnaissance biométrique permettant la reconnaissance ou la déduction des émotions ou des intentions de personnes physiques sur la base de leurs données biométriques est interdit. »

M. Thomas Dossus.  - Parce qu'elles ciblent davantage les groupes sociaux exposés aux discriminations systémiques, les technologies biométriques sont biaisées. En plus des risques d'abus policier, on risque un contrôle au faciès automatisé.

Nous demandons ici d'interdire la catégorisation sur la base de l'origine ethnique, de l'orientation sexuelle, du comportement social ou des convictions, ainsi que l'analyse d'émotions.

M. Philippe Bas, rapporteur.  - Avis défavorable. La religion ou l'orientation sexuelle ne sont pas des données biométriques.

Mme Dominique Faure, ministre déléguée.  - Même avis. Seules les données uniques à un individu sont biométriques : empreintes digitales, ADN par exemple. La reconnaissance des émotions ne repose pas sur des données biométriques.

L'amendement n°2 n'est pas adopté.

L'article 1er est adopté.

ARTICLE 1er BIS

M. le président.  - Amendement n°3, présenté par MM. Dossus, Benarroche, Breuiller et Dantec, Mme de Marco, MM. Fernique, Gontard, Labbé et Parigi, Mme Poncet Monge, M. Salmon et Mme M. Vogel.

Après l'alinéa 3

Insérer un alinéa ainsi rédigé :

Cette expérimentation ne saurait en aucun cas préjuger d'une pérennisation de ces traitements.

M. Thomas Dossus.  - Chaque expérimentation sécuritaire se fait sans retour en arrière, au contraire : on fiche désormais l'ADN des militants politiques ou syndicaux, et s'y refuser expose à être jugé en comparution immédiate. Rien ne garantit que la reconnaissance faciale ne suivra pas le même chemin. C'est pourquoi nous souhaitons inscrire que la pérennisation ne va pas de soi.

M. Philippe Bas, rapporteur.  - C'est le propre de toute expérimentation. Toutefois, cet amendement, s'il ne fait pas de bien, ne fait pas de mal. Avis favorable, pour rassurer ses auteurs.

Mme Dominique Faure, ministre déléguée.  - Lorsque le législateur autorise une expérimentation, une intervention législative est, par construction, nécessaire pour la pérenniser. Nous avons eu ce débat récemment : il n'y aura pas de pérennisation par principe, et le dernier mot revient au Parlement. Votre amendement est satisfait : retrait ou avis défavorable.

Mme Marie-Pierre de La Gontrie.  - Cet amendement est plus important qu'il n'en a l'air. Pléthore de textes instaurent des expérimentations qui, ensuite, sont pérennisées sans évaluation. Comme à l'habitude, le rapporteur a parlé sagement : cet amendement n'est pas superfétatoire.

L'amendement n°3 est adopté.

L'article 1er bis, modifié, est adopté.

ARTICLE 1er TER

M. le président.  - Amendement n°1 rectifié bis, présenté par MM. Reichardt et Frassa, Mme Muller-Bronn, MM. Bazin et Cardoux, Mme de La Provôté, M. Brisson, Mme Goy-Chavent, M. Milon, Mme Schalck, M. Longeot, Mme Guidez, M. Anglars, Mmes Imbert et Micouleau, M. Genet, Mme Thomas et MM. Chatillon et Calvet.

Après l'alinéa 4

Insérer un alinéa ainsi rédigé :

Lorsque l'État confie le développement du logiciel de traitement algorithmique à un tiers, l'autorité administrative compétente apprécie la compatibilité des fonctions envisagées avec les intérêts détenus et les fonctions exercées au cours des cinq dernières années par ce tiers, sur la base de la déclaration prévue à la seconde phrase du septième alinéa du même VI. En cas de doute sérieux sur la compatibilité de ces fonctions, l'autorité administrative compétente peut saisir pour avis la Haute autorité pour la transparence de la vie publique dans les conditions fixées par la section 4 de la loi n° 2013-907 du 11 octobre 2013 relative à la transparence de la vie publique.

Mme Elsa Schalck.  - Nous voulons réintroduire de la transparence dans le développement des logiciels de traitement biométrique. Les garanties prévues pour le traitement des données biométriques dans la version initiale de la proposition de loi ont été supprimées et renvoyées à un décret en Conseil d'État. Cet abandon de compétence par le législateur, susceptible de censure constitutionnelle, est d'autant plus dommageable que des exigences européennes seront directement applicables sans qu'il puisse se saisir du sujet.

M. Philippe Bas, rapporteur.  - Sagesse. À titre personnel, je voterai cet amendement.

Mme Dominique Faure, ministre déléguée.  - Même avis.

M. Jérôme Durain.  - Cet amendement est très important. Le développement des outils algorithmiques est essentiel : nous devons pouvoir attester du pedigree des acteurs qui en seront chargés.

L'amendement n°1 rectifié bis est adopté.

M. le président.  - Amendement n°4, présenté par MM. Dossus, Benarroche, Breuiller et Dantec, Mme de Marco, MM. Fernique, Gontard, Labbé et Parigi, Mme Poncet Monge, M. Salmon et Mme M. Vogel.

Alinéa 10

Supprimer cet alinéa.

M. Thomas Dossus.  - Le dernier alinéa de l'article 1er ter, introduit par le rapporteur, nous pose problème. Il prévoit l'utilisation d'un échantillon d'images de personnes présentes dans l'espace public collectées par des caméras pour l'apprentissage des algorithmes, faisant de ces personnes des cobayes sans leur consentement. Certes, il y a des garde-fous, comme la destruction de ces images, mais c'est un glissement démocratique peu acceptable.

M. le président.  - Amendement n°12, présenté par MM. Dossus, Benarroche, Breuiller et Dantec, Mme de Marco, MM. Fernique, Gontard, Labbé et Parigi, Mme Poncet Monge, M. Salmon et Mme M. Vogel.

Alinéa 10

Rédiger ainsi cet alinéa :

IV.  -  Les critères sur lesquels se fondent les traitements biométriques sont rendus accessibles au public sous un format ouvert et librement réutilisable. Les images sur lesquelles s'opèrent ces traitements ne peuvent être ni cédées ni vendues à un tiers.

M. Thomas Dossus.  - L'alinéa 10 de l'article 1er prétend améliorer la performance du traitement des données biométriques. Mais de quoi parle-t-on exactement ? Selon la Cnil, ces techniques nuisent à la liberté d'aller et venir dans un certain anonymat. De plus, une étude du Massachusetts Institute of Technology (MIT) révèle des préjugés liés au sexe et au type de peau : le taux d'erreur est de 0,8 % pour les hommes à la peau claire contre 34,7 % pour les femmes à la peau foncée.

Par ailleurs, ce marché de la surveillance automatisée est une aubaine pour nombre d'entreprises, qui anticipent un marché de 11 milliards de dollars. Nous ne voulons pas les enrichir avec la vie privée des Français. Au contraire, nous proposons que les critères d'identification soient disponibles en open source et qu'ils ne puissent être cédés ou vendus.

M. le président.  - Amendement n°5, présenté par MM. Dossus, Benarroche, Breuiller et Dantec, Mme de Marco, MM. Fernique, Gontard, Labbé et Parigi, Mme Poncet Monge, M. Salmon et Mme M. Vogel.

Alinéa 10

Compléter cet alinéa par une phrase ainsi rédigée :

Lorsque les enregistrements sont transmis à des fins pédagogiques ou de formation, les données figurant dans les enregistrements sont anonymisées préalablement à leur utilisation.

M. Thomas Dossus.  - Selon le rapport de 2021 de la Défenseure des droits, l'utilisation de la reconnaissance faciale comporte des risques en matière de respect de la vie privée. La Cnil estime également que cette technologie comporte de nombreux risques. Nous proposons à tout le moins d'assurer l'anonymat pour les personnes concernées.

M. Philippe Bas, rapporteur.  - Avis défavorable à l'amendement n°4 : si les traitements ne sont pas fiabilisés par les expérimentations, les erreurs seront toujours prégnantes.

L'amendement n°12 participe de la même philosophie : il va à l'encontre de l'objectif de sécurité affiché, puisque, dans le texte actuel, les données ne seraient pas réutilisables. Avis défavorable.

Même chose pour l'amendement n°5, qui prévoit une anonymisation des images recueillies à des fins pédagogiques : notre texte, plus restrictif, interdit précisément cette utilisation.

Mme Dominique Faure, ministre déléguée.  - Le Gouvernement, sans opposition de principe, est circonspect sur cette proposition de loi et notamment sur l'article 10, qui devra être réexaminé avec des experts ; mais avis défavorable à sa suppression par l'amendement n°4.

La publicité des codes sources de logiciels de sécurité étant incompatible avec nos exigences de protection et de sécurité, avis défavorable aux amendements nos12 et 5.

L'amendement n°4 n'est pas adopté, non plus que les amendements nos12 et 5.

L'article 1er ter, modifié, est adopté.

L'article 1er quater est adopté.

ARTICLE 2

M. le président.  - Amendement n°6, présenté par MM. Dossus, Benarroche, Breuiller et Dantec, Mme de Marco, MM. Fernique, Gontard, Labbé et Parigi, Mme Poncet Monge, M. Salmon et Mme M. Vogel.

Supprimer cet article.

M. Thomas Dossus.  - L'article 2 prévoit de déroger, à titre expérimental, à l'interdiction de la reconnaissance faciale pour les grands événements. Nous sommes là au coeur de l'hypocrisie de la proposition de loi : l'expérimentation n'est qu'un paravent pour généraliser ces pratiques.

In fine, la volonté est d'ancrer ces technologies dans notre environnement. En témoigne le système Parafe dans les aéroports. Il en va de même pour les technologies qui seraient utilisées dans les aéroports, les stades et les concerts. Nous voulons supprimer cet article attentatoire aux libertés individuelles.

M. le président.  - Amendement identique n°13, présenté par Mme Assassi et les membres du groupe communiste républicain citoyen et écologiste.

Mme Éliane Assassi.  - Défendu.

En commission, nous avons appris que les habitants des zones visées par ces pratiques en seraient dispensés (Mme Marie-Pierre de La Gontrie le confirme) : comment, précisément ?

M. Philippe Bas, rapporteur.  - Nous avons fixé en commission des garanties pour l'usage dérogatoire de la reconnaissance faciale dans l'espace public et voilà qu'au moment d'examiner les dérogations, nous sommes saisis d'amendements de suppression. Dès lors, à quoi sert notre travail ?

Madame Assassi, nous avons prévu que les riverains d'un grand événement ne seraient pas assujettis à l'expérimentation de la reconnaissance faciale, sauf consentement exprès de leur part. Il sera donc procédé à un contrôle d'identité classique. Avis défavorable à ces deux amendements.

Mme Dominique Faure, ministre déléguée.  - Supprimer l'article après tout le travail de la commission ne nous semble pas pertinent : avis défavorable.

Les amendements identiques nos6 et 13 ne sont pas adoptés.

L'article 2 est adopté.

ARTICLE 3

M. le président.  - Amendement n°7, présenté par MM. Dossus, Benarroche, Breuiller et Dantec, Mme de Marco, MM. Fernique, Gontard, Labbé et Parigi, Mme Poncet Monge, M. Salmon et Mme M. Vogel.

Supprimer cet article.

M. Thomas Dossus.  - Malgré les garanties technologiques ajoutées en commission, nous nous opposons à de telles pratiques : nous mettons le doigt dans un engrenage dans lequel il sera difficile de sortir. Pour éviter l'effet cliquet, comme le dit M. Durain, nous proposons donc la suppression de l'article.

M. le président.  - Amendement identique n°14, présenté par Mme Assassi et les membres du groupe communiste républicain citoyen et écologiste.

Mme Éliane Assassi.  - Cet article autorise l'utilisation de logiciels de reconnaissance faciale dans le fichier Traitement des antécédents judiciaires (TAJ), dont nous avions dénoncé le gigantisme. Ce mégafichier, qui compte 19 millions de fiches - consacrées aux mis en cause, qu'ils soient condamnés ou non, mais aussi aux témoins et aux victimes - est si volumineux qu'il ne peut plus être utilisé par des humains et que le recours à des logiciels automatisés est indispensable.

M. Philippe Bas, rapporteur.  - Vos amendements ne sauraient être acceptés. Nous avons multiplié les précautions. La reconnaissance faciale a posteriori ne pourra être utilisée que pour les crimes punis de plus de cinq ans de prison, pour le terrorisme, pour la recherche de disparus ou de criminels. Un magistrat devra l'autoriser et un officier de police judiciaire (OPJ) - et non un simple agent - exécutera la décision. Nos libertés ne sont pas menacées : avis défavorable.

Mme Dominique Faure, ministre déléguée.  - Avis défavorable aux deux amendements.

Les amendements identiques nos7 et 14 ne sont pas adoptés.

M. le président.  - Amendement n°18, présenté par M. Bas, au nom de la commission.

I.  -  Alinéa 15

Remplacer les mots :

enquêtes et des

par les mots :

données mentionnées au premier alinéa de l'article 230-27-2 sont, pour les enquêtes et les

et le mot :

sont

par le signe :

,

II.  -  Alinéa 16

1° Après le mot :

des

insérer les mots :

données mentionnées au premier alinéa de l'article 230-27-2 sont, pour les

2° Remplacer le mot :

sont

par le signe :

,

L'amendement rédactionnel n°18, accepté par le Gouvernement, est adopté.

L'article 3, modifié, est adopté.

ARTICLE 4 A

M. le président.  - Amendement n°8, présenté par MM. Dossus, Benarroche, Breuiller et Dantec, Mme de Marco, MM. Fernique, Gontard, Labbé et Parigi, Mme Poncet Monge, M. Salmon et Mme M. Vogel.

Supprimer cet article.

M. Thomas Dossus.  - Défendu.

M. Philippe Bas, rapporteur.  - Nous avons pris des précautions inédites, notamment l'autorisation de cette expérimentation par la loi, et non par un simple décret. Avis défavorable.

Mme Dominique Faure, ministre déléguée.  - Même avis.

L'amendement n°8 n'est pas adopté.

L'article 4 A est adopté.

ARTICLE 4

M. le président.  - Amendement n°9, présenté par MM. Dossus, Benarroche, Breuiller et Dantec, Mme de Marco, MM. Fernique, Gontard, Labbé et Parigi, Mme Poncet Monge, M. Salmon et Mme M. Vogel.

Supprimer cet article.

M. Thomas Dossus.  - Défendu.

M. Philippe Bas, rapporteur.  - Avis défavorable.

Mme Dominique Faure, ministre déléguée.  - Même avis.

L'amendement n°9 n'est pas adopté.

L'article 4 est adopté.

ARTICLE 5

M. le président.  - Amendement n°10, présenté par MM. Dossus, Benarroche, Breuiller et Dantec, Mme de Marco, MM. Fernique, Gontard, Labbé et Parigi, Mme Poncet Monge, M. Salmon et Mme M. Vogel.

Supprimer cet article.

M. Thomas Dossus.  - Nous en venons à la reconnaissance faciale en temps réel : c'est le grand bond en avant vers la société de surveillance... Le texte fait fi des biais des technologies, sources d'erreurs qui peuvent parfois faire plus de mal que de bien. La consultation de la Cnil pour avis n'est pas une garantie suffisante.

Selon les auteurs de la proposition de loi, une société de surveillance vertueuse serait possible. Nous nous y opposons fermement.

M. le président.  - Amendement identique n°15, présenté par Mme Assassi et les membres du groupe communiste républicain citoyen et écologiste.

Mme Éliane Assassi.  - Défendu.

M. Philippe Bas, rapporteur.  - La proposition de loi prévoyait une décision du préfet ; nous avons voulu une décision du Premier ministre, après avis de la CNCTR, sous le contrôle du Conseil d'État. Les garanties sont donc maximales. (Mme Marie-Pierre de La Gontrie le conteste.) En outre, le recours à cet instrument ne vaudra que pour les affaires de terrorisme. Ces amendements ne sont donc pas justifiés. Avis défavorable.

Mme Dominique Faure, ministre déléguée.  - J'ai non pas une opposition de principe sur l'article, mais de lourdes réserves sur le dispositif. L'utilisation de cette technique peut avoir pour objectif de sécuriser un grand événement ou de localiser en urgence un individu, mais dans les deux cas, les modalités d'utilisation prévues ne sont pas adaptées. Toutes les forces de sécurité intérieure devraient y avoir accès, et non les seuls services de renseignement. Avis défavorable.

M. Thomas Dossus.  - Lors de la discussion générale, j'ai indiqué qu'un conflit opposait Beauvau et Matignon sur la notion de terrorisme, notre ministre de l'intérieur considérant certains militants écologistes comme des terroristes. Les garde-fous ne sont pas suffisants.

M. Jérôme Durain.  - L'actualité récente a montré que Matignon avait autorisé sans aucun contrôle l'utilisation de techniques qui auraient dû être très contrôlées. Les garde-fous sont parfois contournés. Cette utilisation en temps réel est prématurée.

Les amendements identiques nos10 et 15 ne sont pas adoptés.

L'article 5 est adopté.

ARTICLE 6

M. le président.  - Amendement n°11, présenté par MM. Dossus, Benarroche, Breuiller et Dantec, Mme de Marco, MM. Fernique, Gontard, Labbé et Parigi, Mme Poncet Monge, M. Salmon et Mme M. Vogel.

Supprimer cet article.

M. Thomas Dossus.  - Si on commence à utiliser les technologies de la reconnaissance faciale, il n'y aura pas de retour en arrière. Nous récusons ce glissement continu vers la surveillance globale qui n'est pas notre modèle de société. L'interdiction de ces techniques doit être un principe absolu. La reconnaissance biométrique peut conduire à des erreurs potentiellement graves. La Défenseure des droits a montré que les groupes déjà discriminés étaient particulièrement vulnérables face à ces technologies. Les enquêteurs disposent déjà de moyens suffisants.

M. le président.  - Amendement identique n°16, présenté par Mme Assassi et les membres du groupe communiste républicain citoyen et écologiste.

Mme Éliane Assassi.  - Défendu.

M. Philippe Bas, rapporteur.  - Les auteurs de ces amendements ont raison sur un point : nous arrivons au point extrême de ce que nous pouvons envisager. Il s'agit non plus d'utiliser des images préexistantes, mais bien de créer l'image par une surveillance permettant d'identifier l'auteur d'un crime particulièrement grave.

Certes, l'utilisation de la reconnaissance faciale ne doit pas se généraliser, mais nous pouvons l'expérimenter, dans des conditions très précises : enquêtes pour des actes de terrorisme, d'atteintes aux intérêts fondamentaux de la Nation, relevant de la grande criminalité organisée ou pour des disparitions d'enfants. La prolongation de cette utilisation au-delà de 48 heures sera soumise à autorisation du JLD.

Mme Dominique Faure, ministre déléguée.  - Utiliser la reconnaissance faciale pour des opérations judiciaires répond à un vrai besoin. Toutefois, le dispositif prévu par la commission ne nous semble pas opérationnel. Même si nous ne sommes pas favorables à l'article, avis défavorable. (M. Thomas Dossus le déplore.)

Les amendements identiques nos11 et 16 ne sont pas adoptés.

M. le président.  - Amendement n°19, présenté par M. Bas, au nom de la commission.

I.  -  Alinéa 20

Remplacer les mots :

enquêtes et des investigations mentionnées aux 1° et 3° du I

par les mots :

images mentionnées au premier alinéa du I sont, pour les enquêtes et les investigations mentionnées au 1° du même I,

II.  -  Alinéa 21

1° Après le mot :

des

insérer les mots :

images mentionnées au premier alinéa du I sont, pour les

2° Remplacer le mot :

sont

par le signe :

,

L'amendement rédactionnel n°19, accepté par le Gouvernement, est adopté.

L'article 6, modifié, est adopté.

L'article 9 est adopté.

À la demande du groupe SER, la proposition de loi est mise aux voix par scrutin public.

M. le président. - Voici le résultat du scrutin n°299 :

Nombre de votants 343
Nombre de suffrages exprimés 343
Pour l'adoption 226
Contre 117

La proposition de loi est adoptée.

M. François-Noël Buffet, président de la commission des lois.  - Bravo !

La séance est suspendue quelques instants.