M. le président. La parole est à Mme Nicole Duranton. (Applaudissements sur les travées du groupe RDPI.)
Mme Nicole Duranton. Comme l’ont souligné les précédents orateurs, nous sommes conduits à nous prononcer aujourd’hui sur une proposition de loi de nos collègues Marc-Philippe Daubresse et Arnaud de Belenet portant sur la reconnaissance biométrique dans l’espace public.
Issu des propositions formulées par une mission d’information de la commission des lois, ce texte vise, d’une part, à fixer des lignes rouges pour faire obstacle à une société de surveillance, d’autre part, à expérimenter de nouveaux cas d’usage de cette technologie, qui croît exponentiellement grâce aux algorithmes d’apprentissage.
Nous le savons, l’opinion publique est polarisée entre ceux qui craignent l’usage poussé des technologies biométriques en raison de leur nature attentatoire aux libertés et ceux qui soulignent davantage ses bénéfices potentiels pour la sécurité de tous.
La reconnaissance biométrique dans l’espace public n’est effectivement pas un dispositif anodin. Elle fait partie de ces outils qui relèvent d’un choix de société et qui requièrent donc une attention et une évaluation toutes particulières.
En effet, ses applications possibles sont illimitées : elles peuvent dépasser le seul prisme sécuritaire pour rythmer un simple acte de la vie courante ou une activité commerciale.
Dès lors, permettre l’usage de telles technologies sans instaurer de garde-fous est dangereux.
Des exemples au-delà de nos frontières nous montrent comment cet usage comporte une part de risque, notamment lorsqu’il est utilisé par un régime totalitaire contre ses propres citoyens.
Nous avons tous en tête l’exemple de la Chine, où la reconnaissance faciale rythme le moindre acte de la vie quotidienne – obtenir une ligne de téléphone portable, faciliter l’enregistrement dans un hôtel, identifier des élèves qui sèchent les cours – et est devenue une arme politique à Hong Kong, par exemple, ou dans la région du Xinjiang contre la minorité ouïghoure.
Pour en revenir au texte, nous souscrivons à l’ambition de fixer des lignes rouges. En revanche, l’ouverture d’expérimentations de nouveaux cas d’usage nous alerte.
À cet égard, l’analyse des services de la Cnil, qui a été présentée à la commission des lois par son secrétaire général, Louis Dutheillet de Lamothe, est aussi éclairante qu’alarmante.
Selon ce dernier, alors que l’expérimentation des technologies biométriques ne devrait être réalisée qu’« avec une extrême prudence et de manière progressive », la proposition de loi que nous examinons « élargit de manière considérable et d’un seul coup les cas d’usage ». Comme il le rappelle, choisir d’expérimenter, c’est déjà choisir de créer.
Contrairement aux recommandations des services de la Cnil, la commission des lois a fait le choix de maintenir les dispositions relatives à la reconnaissance biométrique en temps réel, ce que nous regrettons vivement.
Selon M. Dutheillet de Lamothe, l’identification en temps réel dans l’espace public à titre expérimental marquerait « une rupture fondamentale pour l’exercice de nos libertés publiques, alors que nous n’avons pas encore de recul sur l’efficacité et l’utilité de la biométrie dans les autres cas d’usage ».
Et je n’évoque pas les risques avérés d’erreurs d’identification, les biais discriminatoires, le risque d’inhibition dans l’exercice des droits ou libertés fondamentales ou encore le risque de sécurité informatique.
Par conséquent, avant d’étudier la possibilité de recourir à cette technologie, nous estimons préférable de prendre le temps de tester l’emploi des caméras augmentées, sans reconnaissance faciale, dont l’expérimentation est prévue par l’article 10 de la très récente loi du 19 mai 2023 relative aux jeux Olympiques et Paralympiques de 2024 et portant diverses autres dispositions.
Il convient donc de faire le bilan de cette expérimentation qui se déroulera au cours des jeux Olympiques et Paralympiques, à partir du 26 juillet 2024, avant d’aller plus loin quant au développement de la reconnaissance faciale.
Pour toutes ces raisons, et parce qu’il nous faut légiférer avec une prudence accrue en la matière, le groupe RDPI votera contre ce texte. (Applaudissements sur les travées du groupe RDPI.)
M. le président. La parole est à M. Jérôme Durain. (Applaudissements sur les travées du groupe SER.)
M. Jérôme Durain. Monsieur le président, madame la ministre, mes chers collègues, nous voici réunis pour l’examen, dans une niche, un lundi, au soleil,…
M. Philippe Bas, rapporteur. Un mardi sous la pluie !
M. Jérôme Durain. … d’un texte qui mériterait une meilleure visibilité médiatique.
L’intelligence artificielle et son application aux images, animées ou non, ont suscité quelques débats ces derniers mois, dans le sillage du succès de ChatGPT et des dispositions sur la vidéoprotection algorithmique examinées dans le cadre du projet de loi relatif aux jeux Olympiques et Paralympiques de 2024 et portant diverses autres dispositions.
Je crains cependant que le format de notre discussion de cet après-midi ne nous permette pas de rencontrer le même succès. C’est compréhensible, dans la mesure où ce texte est examiné dans le cadre d’une niche – je le dis avec tout le respect que j’ai pour l’initiative parlementaire. De ce fait, nous ne disposons pas d’étude d’impact et la position de Mme la ministre témoigne du fait que ce texte n’est pas porté à bras-le-corps par le Gouvernement.
Surtout, l’agenda législatif prête à confusion : notre débat intervient en effet quelques semaines seulement après la promulgation du projet de loi sur les jeux Olympiques que j’ai déjà évoqué. Voilà quelques semaines, nous avons été nombreux, et je m’inclus dans ce « nous », à débattre des mesures concernant la vidéoprotection algorithmique lors des jeux Olympiques et à répéter, souvent avec sincérité : « non, il n’y aura pas de reconnaissance faciale aux JO ».
Cela était dit avec sincérité pour plusieurs raisons : nous étions nombreux à penser qu’il était trop tôt, que les critiques exprimées dans la société à l’égard de l’utilisation des algorithmes sans données biométriques créaient suffisamment de réticences et qu’il convenait d’éviter d’aller encore plus loin avec la reconnaissance faciale.
De manière plus pragmatique, de nombreux acteurs nous disent qu’il est trop tard, que mettre en place les systèmes de reconnaissance faciale prend du temps et que rien ne serait de toute façon opérationnel pour les JO. Je pense que ces messages, que nous avons nous-mêmes répétés, ont été entendus.
Permettez-moi d’en rappeler quelques-uns. « Nous nous félicitons de ce que la ligne rouge de la reconnaissance faciale n’ait pas été franchie dans le projet de loi déposé par le Gouvernement », déclarait la rapporteure de la commission des lois sur le récent projet de loi relatif aux jeux Olympiques et Paralympiques. « Je suis opposé à la reconnaissance faciale », affirmait Gérald Darmanin, auditionné par notre commission. « Nous ne voulons pas de la reconnaissance faciale ni de l’utilisation de données et de systèmes d’identification biométrique pour ces Jeux. Non seulement ces procédés ne nous semblent pas nécessaires sur le plan opérationnel, mais, surtout, les autres dispositifs prévus permettront, à eux seuls, un saut qualitatif en matière de prévention et de lutte contre les troubles à l’ordre public », déclarait Amélie Oudéa-Castéra à l’Assemblée nationale.
Je l’ai bien compris, certaines de ces citations sont soumises à interprétation, voire à une date limite de validité. Je comprends ces subtilités. Après tout, j’ai moi-même signé le rapport de la commission des lois sur la reconnaissance faciale, avant de refuser de signer la proposition de loi qui en découlait.
Permettez-moi de vous expliquer mon raisonnement personnel avant de vous confier la position de mon groupe sur cette proposition de loi.
Je ne crois pas que la reconnaissance faciale, telle qu’elle est perçue par les auteurs du texte, dont je connais les intentions, la qualité du travail et le souci de prendre de grandes précautions, comme par notre rapporteur, constitue un danger en soi. C’est une technologie qui commence à être efficace, même si elle conserve quelques faiblesses. Elle est déjà utilisée par nos citoyens pour certains de leurs actes quotidiens – je pense notamment au déverrouillage des téléphones.
Encadrer cette technologie semble très important. On peut le noter, un cadre global sur l’intelligence artificielle nous sera bientôt donné par l’Union européenne. Si l’on prend en considération le succès du RGPD, on peut imaginer que l’échelon européen est le plus adapté à la régulation du numérique.
M. le rapporteur estime que cela interviendra trop tardivement. Je pense au contraire qu’il ne sert à rien de se précipiter sur un sujet éthique qui aura des conséquences sur plusieurs décennies. Je considère que ce sujet mériterait un débat national d’envergure, oserais-je dire une convention citoyenne ? Je ne crois pas que nos compatriotes soient par nature opposants ou partisans de cette technologie et je ne préjuge pas des conclusions qui pourraient en sortir.
Je suis un fervent défenseur de la démocratie parlementaire, mais je crois que, sur certains sujets pour lesquels l’acceptabilité est essentielle, il importe de mettre en place des processus de décision associant le plus grand nombre possible de citoyens. Pour le dire autrement, je ne crois pas que cela passe par un projet de loi ou une proposition de loi ordinaire.
Vous l’aurez compris, l’ensemble de ces arguments conduit mon groupe à s’opposer à l’adoption de cette proposition de loi. La réécriture opérée par M. Bas a ses vertus, la volonté d’encadrer cette technologie étant louable. Toutefois, nous pensons que l’heure n’est pas venue.
Par ailleurs, en matière technologique, l’effet cliquet n’est jamais loin, une intervenante précédente ayant évoqué l’audition du secrétaire général de la Cnil. Aujourd’hui, nous repoussons le modèle chinois de reconnaissance faciale, comme nous repoussions hier l’internet à la chinoise, protégé derrière son grand firewall. Pourtant, de plus en plus de voix jalousent les possibilités offertes par l’internet chinois pour protéger les mineurs ou censurer des contenus dangereux.
Sommes-nous certains, mes chers collègues, que le modèle chinois de reconnaissance faciale constituera toujours un repoussoir dans dix ans ? Notre réponse est-elle dépendante des changements de majorité politique que pourrait connaître notre pays ? Vous hésiterez peut-être à me répondre. C’est ce qui détermine nos réflexions.
Par ailleurs, méfions-nous du solutionnisme technologique. Pour avoir débattu de l’utilité de cette technologie avec des dizaines de personnes ces dernières années, je retiens quelques limites qui nous permettront de relativiser l’urgence de notre débat.
Premièrement, la reconnaissance faciale n’est pas une recette miracle. Oui, elle sera utile dans certains cas : enlèvements de personnes, menace terroriste identifiée – j’insiste sur le terme « identifiée » –, recherche de personnes dangereuses précises. Elle ne fera pas disparaître l’ensemble des menaces.
Certes, elle sera utile dans la résolution d’enquêtes, mais il faut garder à l’esprit que la vidéoprotection elle-même n’a pas fait disparaître la criminalité dans notre pays. Même si elle est utile, elle a ses limites, et la Cour des comptes ne s’est pas privée de le rappeler à de multiples reprises.
La vidéoprotection et la reconnaissance faciale ne vont pas sans intervention humaine. Dans des exemples dramatiques, encore très récents, ce sont bien des interventions humaines qui ont permis de mettre fin au drame qui se déroulait. Aucune caméra, avec ou sans reconnaissance faciale, n’aurait pu empêcher ce qui s’est passé. Un acteur du renseignement me disait, de façon un peu triviale, « ce n’est pas parce que j’identifie celui qui a rayé ma voiture sur le parking que ma voiture est réparée ».
Il n’y aura pas de miracle, sauf exceptionnellement. Et ces technologies nous coûteront pourtant très cher ! Un autre expert me disait : « Vous avez aimé les milliards dépensés pour la vidéoprotection ? Vous adorerez le coût de la reconnaissance faciale ! » Il rappelait par ailleurs que « l’adéquation de l’utilité de la reconnaissance faciale avec une doctrine sécuritaire plus large est déterminante ». Le coût de cette technologie est loin d’être anodin par rapport aux autres moyens mis en œuvre. Il reviendra à l’État d’articuler un ensemble de solutions.
Mes chers collègues, le texte qui est soumis à notre sagacité aujourd’hui n’est pas, selon moi, un mauvais texte. L’initiative de MM. Daubresse et de Belenet a ses vertus et les enrichissements apportés par M. le rapporteur Philippe Bas sont indéniables.
Toutefois, le groupe socialiste considère que ce débat, qui intervient après que nous avons tous répété urbi et orbi que la reconnaissance faciale ne serait pas en place aux JO, est prématuré. Face aux bouleversements de l’intelligence artificielle croisée avec les données biométriques, il nous semble prudent d’avancer conjointement avec l’Europe. Vous le comprendrez, et le regretterez peut-être, nous ne soutiendrons pas ce texte. (Applaudissements sur les travées du groupe SER.)
M. le président. La parole est à Mme Éliane Assassi.
Mme Éliane Assassi. Monsieur le président, madame la ministre, mes chers collègues, si la pratique de la surveillance des populations par l’État est ancienne, sa massification, sa sophistication et sa banalisation interrogent.
Fichage massif de nos concitoyens, des organisations syndicales, des syndicalistes et des militants, déploiement incontrôlé de la vidéosurveillance, qu’elle soit traditionnelle ou algorithmique, usage de drones, marquage des manifestants, activation à distance des téléphones portables dans un but de géolocalisation, mais aussi activation à distance de la caméra et du micro de ces mêmes téléphones, scanners corporels… La panoplie des mesures de surveillance, sous couvert de justification sécuritaire, s’enrichit de manière inquiétante, pour ne pas dire glaçante, et ce dans l’apathie générale.
Ce qui, hier, relevait de la dystopie se concrétise pas à pas, sous nos yeux, sans aucun débat public. Pire, sous couvert d’écarter le risque d’une société de surveillance, le texte dont nous débattons aujourd’hui tend à instaurer le principe d’une telle surveillance, en se cachant derrière l’impératif de « préserver nos intérêts économiques en développant des outils techniques français qui améliorent la sécurité sans nuire aux libertés ».
Et les jeux Olympiques ou autres « méga-événements » sont autant de chevaux de Troie « pour faire progresser des politiques qu’il aurait été difficile, voire impossible, de mettre en place en temps normal », comme le rappellent très justement de nombreuses ONG.
C’est ainsi que ce texte vise, sous couvert d’expérimentation, dans une logique de prévention des risques, de lutte contre des menaces, supposées ou avérées, ou d’efficacité des enquêtes, de banaliser la vidéosurveillance automatisée. Cette surveillance massive de l’espace public a pour objet de détecter des comportements prétendument anormaux, via l’identification par reconnaissance faciale en temps réel.
Comme pour d’autres systèmes de surveillance par le passé, tout en reconnaissant le caractère intrusif des technologies biométriques, l’argument avancé pour les mettre est place est l’impossibilité « de se priver de la reconnaissance faciale dans des cas particulièrement graves, afin de garantir la sécurité de nos concitoyens, à condition que son déploiement, exceptionnel, soit entouré des garanties nécessaires ».
Selon M. le rapporteur, il ne fallait pas « nous attarder sur les dangers réels de cette technologie en matière d’atteinte à la vie privée, sur les risques de développement d’une société de surveillance à la chinoise ou encore sur les erreurs possibles d’identification. Car cette technologie présente des avantages dont il serait dommage de se priver définitivement. Elle permet notamment de prévenir des attentats ou encore de retrouver des criminels. »
Notons-le, cette technologie est aussi la source de juteux revenus pour de nombreux acteurs privés. Nous parlons d’un marché en pleine expansion, qui pèsera près de 76 milliards de dollars dans le monde à l’horizon 2025.
Pour notre part, c’est au contraire des risques que font courir ces technologies et de la société que nous voulons qu’il faut débattre avant toute chose. Nous savons que ces dispositifs comportent des risques de discrimination, d’erreur, d’atteinte aux libertés fondamentales que nous ne pouvons balayer d’un revers de la main !
C’est ce que nous confirme la Cnil, en pointant le fait que « les bases de données utilisées pour le calibrage des algorithmes – les femmes, les gens de couleur, les personnes différentes – sont moins bien identifiées par les intelligences artificielles, faisant peser le risque de leur occasionner plus de contrôles, moins de libertés. »
De plus, comme le souligne La Quadrature du Net, « les comportements dits “suspects” ne sont que la matérialisation de choix politiques, subjectifs et discriminatoires, qui se focalisent sur les personnes passant le plus de temps dans la rue. Qu’elle soit humaine ou algorithmique, l’interprétation des images est toujours dictée par des critères sociaux et moraux, et l’ajout d’une couche logicielle n’y change rien. »
Enfin, ne nous y trompons pas, ces dix dernières années, toutes les mesures d’exception expérimentales ont fini, d’une manière ou d’une autre, par entrer dans le droit commun et par s’étendre à l’ensemble de la population et à toutes les situations.
Depuis près de vingt ans, avec une accélération certaine ces dernières années, nous sommes enfermés dans des politiques sécuritaires dont l’efficacité n’a pas été prouvée. Les outils de surveillance se renforcent et les lois se durcissent sans aucun débat public.
Permettez-moi de reprendre les propos de Mme Mireille Delmas-Marty, qui s’interrogeait, voilà plusieurs années, sur l’État autoritaire : « L’État autoritaire n’est pas nouveau, ce qui est nouveau, peut-être, c’est sa façon d’être autoritaire, d’une autorité grise et pénétrante qui envahit chaque repli de la vie, autorité indolore et invisible et pourtant confusément acceptée. » Ne laissons pas l’exigence de sécurité briser le rêve de liberté ! (Applaudissements sur les travées du groupe CRCE.)
M. le président. La parole est à M. Gilbert Favreau.
M. Gilbert Favreau. Monsieur le président, madame la ministre, mes chers collègues, le philosophe grec Ésope a dit, voilà à peu près vingt-six siècles, « la langue est la meilleure ou la pire des choses ».
Cette citation peut s’appliquer à la technique d’authentification biométrique, qui peut être un outil précieux pour identifier une personne recherchée, mais également servir la politique de répression d’un régime totalitaire.
Son usage fait la une de l’actualité à quelques mois de la Coupe du monde de rugby en septembre prochain et des jeux Olympiques et Paralympiques en juillet 2024. Ne faut-il pas avoir peur de cette technologie potentiellement redoutable ?
Rappelez-vous, le 16 avril dernier, la République islamique d’Iran a annoncé la mise en place d’une politique répressive pour lutter contre le non-port du voile. Pour arriver à ses fins, le régime des mollahs a annoncé l’introduction du système de reconnaissance faciale pour traquer ces femmes, militantes de la liberté.
En Chine populaire, dans un pays qui maîtrise parfaitement cette technologie, la reconnaissance faciale a été généralisée au point que les autorités sont en mesure d’identifier dans la rue chaque individu, de connaître le solde de son compte bancaire, de procéder à la filature et à l’arrestation de celui ou de celle n’ayant pas payé son reliquat d’impôts ou une amende reçue dans le train ou le métro.
Plus récemment encore est apparu un programme informatique américain, ChatGPT, qui bouleversera sans doute notre rapport à la compétence.
C’est dans ce contexte que, lors de l’examen au Sénat, en janvier dernier, du projet de loi relatif à l’organisation des jeux Olympiques de Paris, la question de la reconnaissance biométrique s’est posée à la représentation nationale.
En effet, 2024 sera une année où la France accueillera des sportifs et supporters du monde entier. Il serait terrible pour notre image que la menace terroriste ou la criminalité organisée viennent ternir cette période.
Cela nous a permis de prendre conscience du vide juridique existant en droit français sur ce sujet. Il était donc urgent de légiférer et cette proposition de loi vient donner un cadre légal à l’usage de cette pratique. Pour cela, je remercie vivement mes collègues Marc-Philippe Daubresse, Arnaud de Belenet et Bruno Retailleau de nous présenter aujourd’hui ce texte.
Un rapport d’information publié le 30 mars 2023 par quatre sénateurs de la commission des affaires européennes du Sénat a pour autant qualifié de « pratique à haut risque » la mise en place de la reconnaissance biométrique dans l’espace public, invitant le législateur à l’interdire totalement, sauf raison très exceptionnelle.
Le texte qui vient aujourd’hui devant le Sénat tient compte de toutes ces préoccupations.
Sur le fond, il précise, dès son article 1er, que la reconnaissance biométrique est limitée par plusieurs lignes rouges. Il vise à interdire formellement la catégorisation, la notation et la reconnaissance biométrique des personnes physiques dans l’espace public.
Je salue également le travail de la commission des lois et de son rapporteur Philippe Bas, qui a ajouté l’interdiction de l’identification a posteriori dans l’espace public. Ces interdictions posent les bases d’une garantie de maintien des libertés, empêchant notre pays de sombrer dans une société de surveillance généralisée.
Cela étant, il est nécessaire de se doter de tous les moyens que la technologie nous offre pour protéger les Français des attaques terroristes ou de la criminalité grandissante.
Ainsi, il est proposé d’expérimenter pour trois ans un système de reconnaissance biométrique. Les différentes exceptions au principe d’interdiction seraient obligatoirement autorisées par la loi et l’application réglementaire se ferait après avis de la Commission nationale de l’informatique et des libertés ou de la Commission nationale de contrôle des techniques de renseignement.
En ce qui concerne l’utilisation d’images en temps réel, cette pratique serait limitée aux actions antiterroristes, afin d’éviter une attaque sur des civils innocents. Ainsi, à titre expérimental, les services du premier cercle, notamment la direction générale de la sécurité intérieure (DGSI) et Tracfin, pourront utiliser la reconnaissance faciale sur la voie publique, lorsqu’une action concernera, par exemple, la défense nationale ou la prévention d’un attentat terroriste.
L’utilisation d’images pour des enquêtes judiciaires, quant à elle, ne pourra se faire qu’après autorisation de l’autorité judiciaire afin de lutter contre la grande criminalité ou de rechercher des fugitifs ou des victimes d’enlèvement.
Enfin, pour des événements particuliers ayant lieu sur la voie publique comme les jeux Olympiques, par exemple, ce système pourra être mis en place pour des actions de police administrative, donc préventive, lorsqu’une menace grave planera sur ledit événement.
Même si je n’évoquerai pas en détail tous les points de la proposition de loi, celle-ci arrive à point nommé. Elle me semble constituer un bon équilibre entre la nécessaire garantie des droits fondamentaux d’une démocratie comme la France et le défi d’une protection efficace de nos concitoyens.
Ce texte, je l’espère, servira de base et d’exemple pour nos homologues européens en matière d’utilisation de la reconnaissance biométrique.
Il était donc logique, dans ces conditions, que la commission des lois tienne compte des craintes exprimées sur les dangers potentiels de la mise en œuvre d’une telle technologie dans l’espace public.
Le texte issu des travaux de la commission, qui sera soumis au vote du Sénat, exprime de façon très didactique la prise en compte des interrogations légitimes de certains élus sur les possibles dérives de la reconnaissance biométrique dans l’espace public et organise un dispositif légal garant de la sécurité des citoyens et des libertés publiques. Il a d’ailleurs été approuvé à l’unanimité par la commission des lois, ce dont je me félicite.
Telles sont les raisons pour lesquelles je voterai ce texte. (Applaudissements sur les travées du groupe Les Républicains, ainsi qu’au banc des commissions. – M. Arnaud de Belenet applaudit également.)
M. le président. La discussion générale est close.
Nous passons à la discussion du texte de la commission.
proposition de loi relative à la reconnaissance biométrique dans l’espace public
Chapitre Ier
Faire obstacle à une société de surveillance
(Division nouvelle)
Article 1er
Après l’article 6 de la loi n° 78-17 du 6 janvier 1978 relative à l’informatique, aux fichiers et aux libertés, il est inséré un article 6 bis ainsi rédigé :
« Art. 6 bis. – Sauf si la personne a donné son consentement explicite, libre et éclairé, le traitement de données biométriques aux fins d’identifier une personne à distance dans l’espace public et dans les espaces accessibles au public est interdit. Le II de l’article 31 et l’article 88 ne sont pas applicables.
« Il ne peut être dérogé au premier alinéa du présent article que pour des motifs d’une exceptionnelle gravité, dans les conditions expérimentales prévues par la loi n° … du … relative à la reconnaissance biométrique dans l’espace public, pour des finalités limitativement énumérées et selon un régime d’autorisations préalables dont l’exécution est assortie de contrôles exercés par des autorités indépendantes du service habilité à mettre en œuvre ces exceptions.
« Le recours à ces dérogations obéit aux principes de nécessité et de proportionnalité, appréciés notamment au regard de la finalité qu’elles poursuivent et des circonstances dans lesquelles elles sont mises en œuvre, du caractère limité des images traitées et de leur durée de conservation.
« Toute catégorisation et notation des personnes physiques sur la base de leurs données biométriques sont interdites. »
M. le président. L’amendement n° 2, présenté par MM. Dossus, Benarroche, Breuiller et Dantec, Mme de Marco, MM. Fernique, Gontard, Labbé et Parigi, Mme Poncet Monge, M. Salmon et Mme M. Vogel, est ainsi libellé :
I. – Alinéa 5
Après le mot :
biométriques
insérer les mots :
, notamment sur le fondement de leur origine, de leur sexe, de leur orientation sexuelle, de leur comportement social, de leurs convictions philosophiques ou religieuses, de leur capacité à s’exprimer dans une langue autre que le français, de leur appartenance ou de leur non-appartenance, vraie ou supposée, à une ethnie, une Nation, une prétendue race ou une religion déterminée
II. – Compléter cet article par un alinéa ainsi rédigé :
« Tout système de reconnaissance biométrique permettant la reconnaissance ou la déduction des émotions ou des intentions de personnes physiques sur la base de leurs données biométriques est interdit. »
La parole est à M. Thomas Dossus.