M. Thomas Dossus. Parce qu’elles ciblent le plus souvent les caractéristiques des individus qui les exposent à des discriminations, les technologies biométriques et la généralisation de leur usage sont susceptibles d’amplifier, pour certains groupes sociaux, les discriminations systémiques opérant au sein de la société. En d’autres termes, ces technologies sont biaisées.
Lorsqu’elles sont déployées, elles ciblent en priorité les personnes pauvres, car la surveillance est basée sur des critères sociaux, en visant prioritairement les personnes se trouvant souvent dans la rue par manque de ressources.
Outre les risques d’abus policiers, de tels biais contribuent aussi à engendrer un contrôle au faciès automatisé.
Nous demandons donc d’interdire clairement la catégorisation et la notation d’individus sur la base de leur origine ethnique, de leur orientation sexuelle, de leur sexe, de leur comportement social, de certaines de leurs convictions. Nous demandons également d’interdire l’analyse d’émotions.
M. le président. Quel est l’avis de la commission ?
M. Philippe Bas, rapporteur. La commission est défavorable à cet amendement.
La religion ou le sexe ne constituent pas des données biométriques. Il n’est donc pas utile de préciser que celles-ci ne doivent pas donner d’informations sur de telles caractéristiques.
M. le président. Quel est l’avis du Gouvernement ?
Mme Dominique Faure, ministre déléguée. Comme la commission, le Gouvernement est défavorable à cet amendement.
En effet, seules les données permettant d’identifier de manière unique les individus sont biométriques. Il s’agit des empreintes digitales, de l’ADN ou de photographies.
La reconnaissance des émotions ne repose pas sur des données biométriques. Aucune des informations dont vous dressez la liste ne permet d’identifier de manière unique une personne.
M. le président. Je mets aux voix l’article 1er.
(L’article 1er est adopté.)
Article 1er bis (nouveau)
I. – Les articles 1er ter, 5 et 6 de la présente loi, ainsi que le 4° bis de l’article 44 de la loi n° 78-17 du 6 janvier 1978 relative à l’informatique, aux fichiers et aux libertés, le chapitre III bis du titre IV du livre Ier du code de procédure pénale, le 7° de l’article L. 821-2 du code de la sécurité intérieure et le chapitre VI du titre V du livre VIII du même code, dans leur rédaction résultant de la présente loi, sont applicables pour une durée de trois ans à compter de la promulgation de la présente loi.
II. – L’Assemblée nationale et le Sénat sont informés sans délai des mesures prises ou mises en œuvre par les autorités administratives en application du 4° bis de l’article 44 de la loi n° 78-17 du 6 janvier 1978 relative à l’informatique, aux fichiers et aux libertés. Ces autorités administratives leur transmettent sans délai copie de tous les actes qu’elles prennent en application de ces dispositions.
Pendant la durée de l’expérimentation prévue au I, le rapport public de la Commission nationale de contrôle des techniques de renseignement prévu à l’article L. 833-9 du code de la sécurité intérieure comporte, dans le respect du secret de la défense nationale et sans révéler des procédures ou des méthodes opérationnelles, une évaluation des mesures mises en œuvre en application du 7° de l’article L. 821-2 du même code, du chapitre VI du titre V du livre VIII dudit code et de l’article 5 de la présente loi.
III. – Au plus tard six mois avant la fin de la durée mentionnée au I, le Gouvernement adresse au Parlement un rapport évaluant l’application des mesures prévues par la présente loi et l’opportunité de les pérenniser ou de les modifier, notamment au vu de l’évolution du droit de l’Union européenne en la matière.
M. le président. L’amendement n° 3, présenté par MM. Dossus, Benarroche, Breuiller et Dantec, Mme de Marco, MM. Fernique, Gontard, Labbé et Parigi, Mme Poncet Monge, M. Salmon et Mme M. Vogel, est ainsi libellé :
Après l’alinéa 3
Insérer un alinéa ainsi rédigé :
Cette expérimentation ne saurait en aucun cas préjuger d’une pérennisation de ces traitements.
La parole est à M. Thomas Dossus.
M. Thomas Dossus. Nous considérons, et nous ne sommes pas les seuls, que chaque expérimentation, chaque renforcement de nos politiques sécuritaires par la technologie se fait sans retour en arrière, bien au contraire. Les usages et les autorisations ont même plutôt tendance à s’étendre.
Cela a été le cas, je l’ai dit au cours de la discussion générale, pour les prélèvements d’ADN. Au début, on nous jurait que leur usage serait circonscrit aux actes de terrorisme. Or force est de constater que tel n’est pas le cas. Ainsi, en janvier de cette année, un manifestant contre la réforme des retraites est passé en comparution pour avoir refusé de donner ses empreintes génétiques lors de son arrestation. Qui peut s’habituer à ce qu’on fiche l’ADN des militants politiques ou syndicaux ?
Qu’est-ce qui nous garantit que la surveillance biométrique ne suivra pas ce même chemin ? Rien ! Certainement pas l’expérience que nous avons des évolutions législatives analogues !
C’est pourquoi nous souhaitons inscrire en toutes lettres dans la loi que la pérennisation ne va pas de soi et que le débat sur ces technologies a besoin de contradictoire.
M. le président. Quel est l’avis de la commission ?
M. Philippe Bas, rapporteur. C’est le sens même d’une expérimentation que la pérennisation n’aille pas de soi !
Au demeurant, si cet amendement ne fait pas de bien, il ne fait pas de mal non plus. C’est la raison pour laquelle la commission y est favorable, afin de rassurer ses auteurs.
M. le président. Quel est l’avis du Gouvernement ?
Mme Dominique Faure, ministre déléguée. Quand le législateur autorise une expérimentation, monsieur le sénateur, il va de soi qu’il ne préjuge pas de sa pérennisation : une intervention législative est, par construction, indispensable pour ce faire.
Je rappelle que nous avons déjà eu ce débat à l’occasion de l’examen de la loi relative aux jeux Olympiques et Paralympiques de 2024. Il ne pourra pas davantage y avoir pérennisation par principe. Le dernier mot reviendra au Parlement.
Cet amendement étant satisfait, j’invite le Sénat à le rejeter.
M. le président. La parole est à Mme Marie-Pierre de La Gontrie, pour explication de vote.
Mme Marie-Pierre de La Gontrie. Cet amendement est plus important qu’il n’en a l’air. Il s’agit surtout d’un message, peut-être un peu appuyé, en direction du Gouvernement.
Je suis parlementaire depuis maintenant quelques années. Nous ne cessons d’examiner des textes visant à instaurer des expérimentations, lesquelles ne font pas l’objet d’évaluations, y compris lorsque celles-ci sont prévues, et qui sont ensuite pérennisées. On a pu le constater dans des moments particuliers, comme pendant la crise de la covid-19, mais on le constate aussi régulièrement – je siège à la commission des lois – sur de nombreux sujets.
M. le rapporteur a parlé sagement, comme à l’accoutumée. Il est vrai que, stricto sensu, une telle précision ne devrait pas être nécessaire. Mais l’expérience nous invite à nous montrer prudents. Nous voterons donc cet amendement.
M. le président. Je mets aux voix l’article 1er bis, modifié.
(L’article 1er bis est adopté.)
Article 1er ter (nouveau)
I. – Les traitements de données biométriques autorisés dans le cadre de la présente loi ont pour objet d’indiquer le degré de probabilité qu’une personne apparaissant sur les images exploitées corresponde effectivement à la personne dont la présence est recherchée. Le degré de probabilité ne peut apparaître qu’une fois les opérations de rapprochement effectuées par ces traitements, et uniquement pour celles de ces données qui sont entrées en concordance entre elles ou avec d’autres informations exploitées par le logiciel.
Ces traitements ne peuvent fonder, par eux-mêmes, aucune décision individuelle ou aucun acte de poursuite. Le contrôle de la mise en œuvre des traitements dans le respect des finalités définies est assuré en permanence par les agents chargés de son application. Les signalements générés par ces traitements donnent lieu à une analyse par des agents qualifiés, individuellement désignés et habilités. Cette habilitation précise la nature des données auxquelles elle donne accès.
Ces traitements ne peuvent procéder à aucun rapprochement, interconnexion ou mise en relation automatisés avec d’autres traitements de données à caractère personnel.
II. – L’État assure le développement des logiciels de traitement de données biométriques autorisés dans le cadre de la présente loi. Il peut également en confier le développement à un tiers ou les acquérir. Ces traitements sont développés dans les conditions prévues au VI de l’article 10 de la loi n° 2023-380 du 19 mai 2023 relative aux jeux Olympiques et Paralympiques de 2024 et portant diverses autres dispositions.
III. – Les logiciels de traitement de données biométriques déployés dans le cadre de la présente loi sont autorisés par décrets en Conseil d’État pris après avis de la Commission nationale de l’informatique et des libertés ou, pour les logiciels utilisés en application des articles 4 et 5 de la présente loi, de la Commission nationale de contrôle des techniques de renseignement.
Ces décrets fixent les caractéristiques essentielles du traitement. Ils indiquent notamment les conditions d’habilitation et de formation des agents pouvant accéder aux signalements du traitement et, le cas échéant, les spécificités des situations justifiant l’emploi du traitement. Ils désignent l’autorité chargée d’établir l’attestation de conformité mentionnée au dernier alinéa du VI de l’article 10 de la loi n° 2023-380 du 19 mai 2023 précitée.
Ces décrets sont accompagnés d’une analyse d’impact relative à la protection des données personnelles qui expose :
1° Le bénéfice escompté de l’emploi du traitement au service de la finalité qu’il poursuit ;
2° L’ensemble des risques éventuellement créés par le système et les mesures envisagées afin de les minimiser et de les rendre acceptables au cours de son fonctionnement.
IV. – Afin d’améliorer la performance des traitements, un échantillon d’images collectées, dans des conditions analogues à celles prévues pour l’emploi de ces traitements, au moyen de caméras dédiées et distinctes de celles des systèmes de vidéoprotection et sélectionnées, sous la responsabilité de l’État, conformément aux exigences de pertinence, d’adéquation et de représentativité mentionnées au 1° du V de l’article 10 de la loi n° 2023-380 du 19 mai 2023 précitée peut être utilisé comme données d’apprentissage pendant une durée strictement nécessaire et maximale de quatre mois à compter de l’enregistrement des images. Ces images sont détruites, en tout état de cause, à la fin de la durée prévue au I de l’article 1er bis de la présente loi.
M. le président. L’amendement n° 1 rectifié bis, présenté par MM. Reichardt et Frassa, Mme Muller-Bronn, MM. Bazin et Cardoux, Mme de La Provôté, M. Brisson, Mme Goy-Chavent, M. Milon, Mme Schalck, M. Longeot, Mme Guidez, M. Anglars, Mmes Imbert et Micouleau, M. Genet, Mme Thomas et MM. Chatillon et Calvet, est ainsi libellé :
Après l’alinéa 4
Insérer un alinéa ainsi rédigé :
Lorsque l’État confie le développement du logiciel de traitement algorithmique à un tiers, l’autorité administrative compétente apprécie la compatibilité des fonctions envisagées avec les intérêts détenus et les fonctions exercées au cours des cinq dernières années par ce tiers, sur la base de la déclaration prévue à la seconde phrase du septième alinéa du même VI. En cas de doute sérieux sur la compatibilité de ces fonctions, l’autorité administrative compétente peut saisir pour avis la Haute Autorité pour la transparence de la vie publique dans les conditions fixées par la section 4 de la loi n° 2013-907 du 11 octobre 2013 relative à la transparence de la vie publique.
La parole est à Mme Elsa Schalck.
Mme Elsa Schalck. Cet amendement vise à réintroduire dans la loi un principe de transparence relatif au développement des logiciels de traitement. En effet, il faut regretter que des garanties relatives à leur développement et à l’organisation du traitement des données biométriques, prévues dans la version initiale de cette proposition de loi, aient été supprimées au profit d’un simple renvoi à un décret en Conseil d’État.
Pourtant, le législateur ne saurait consentir à cet abandon de compétence au profit du pouvoir réglementaire, par ailleurs susceptible de censure constitutionnelle.
L’intervention du législateur est nécessaire dans ce domaine, car la reconnaissance biométrique résulte d’indissociables aspects immatériels et matériels. Cet abandon de compétence serait d’autant plus dommageable que des exigences européennes seront directement applicables sans que le législateur français se saisisse de ce sujet et fixe ses propres garanties.
De manière concrète, enfin, il est nécessaire d’aider les autorités administratives compétentes dans l’exercice de leur pouvoir de contrôle déontologique.
Le présent amendement tend donc à prévoir la possibilité de saisir pour avis et à titre subsidiaire la Haute Autorité pour la transparence de la vie publique (HATVP).
M. le président. Quel est l’avis de la commission ?
M. Philippe Bas, rapporteur. La commission a émis un avis de sagesse. À titre personnel, je voterai cet amendement.
M. le président. Quel est l’avis du Gouvernement ?
M. le président. La parole est à M. Jérôme Durain, pour explication de vote.
M. Jérôme Durain. Cet amendement est particulièrement important. Avec mes collègues, nous avons pu observer que les conditions de développement des outils algorithmiques, qu’il s’agisse de l’origine des données ou de la nature des opérateurs, étaient essentielles. Il est donc très important de pouvoir s’assurer du pedigree, du passé professionnel et des intentions du tiers auquel l’État confie le développement d’un logiciel de traitement algorithmique.
M. le président. Je suis saisi de trois amendements faisant l’objet d’une discussion commune.
L’amendement n° 4, présenté par MM. Dossus, Benarroche, Breuiller et Dantec, Mme de Marco, MM. Fernique, Gontard, Labbé et Parigi, Mme Poncet Monge, M. Salmon et Mme M. Vogel, est ainsi libellé :
Alinéa 10
Supprimer cet alinéa.
La parole est à M. Thomas Dossus.
M. Thomas Dossus. Le dernier alinéa de l’article 1er ter introduit en commission par notre rapporteur tend à prévoir qu’un échantillon d’images collectées au moyen de caméras dédiées puisse être utilisé comme données d’apprentissage pendant une durée de quatre mois à compter de l’enregistrement des images.
Il est par ailleurs prévu dans cet alinéa que ces images soient détruites au bout de trois ans après la promulgation de la loi.
Les algorithmes, pour fonctionner correctement, ont besoin de données d’apprentissage. En l’espèce, pour la biométrie, ils ont besoin de voir et d’analyser des personnes afin de s’entraîner. Ce seront donc des personnes présentes dans l’espace public qui seront, sans leur consentement, des cobayes pour cet apprentissage. Ce n’est pas acceptable. Les libertés publiques n’ont pas à être un terrain d’entraînement ou d’expérimentation.
Par ailleurs, le texte vise à prévoir que des entreprises privées puissent être chargées de développer des traitements biométriques. Cela signifie que leur activité et leurs revenus seraient donc assurés par des personnes non consentantes dans l’espace public. Même si des garde-fous sont érigés, même si la destruction des données est prévue, il y a là un glissement démocratique peu acceptable.
Cet alinéa, avec ses dangers et ses dérives, est à l’opposé de nos convictions. C’est pourquoi nous proposons de le supprimer.
M. le président. L’amendement n° 12, présenté par MM. Dossus, Benarroche, Breuiller et Dantec, Mme de Marco, MM. Fernique, Gontard, Labbé et Parigi, Mme Poncet Monge, M. Salmon et Mme M. Vogel, est ainsi libellé :
Alinéa 10
Rédiger ainsi cet alinéa :
IV. – Les critères sur lesquels se fondent les traitements biométriques sont rendus accessibles au public sous un format ouvert et librement réutilisable. Les images sur lesquelles s’opèrent ces traitements ne peuvent être ni cédées ni vendues à un tiers.
La parole est à M. Thomas Dossus.
M. Thomas Dossus. L’alinéa 10 de l’article 1er ter vise à améliorer la performance des traitements de données biométriques. Mais de quelle performance et de quelle amélioration parle-t-on exactement ?
D’après la Commission nationale de l’informatique et des libertés (Cnil), les technologies biométriques nuisent à la possibilité protégée par le droit d’aller et de venir sans être reconnu, en bénéficiant d’une forme d’anonymat. Elles comportent un risque d’erreur important, qui entraîne parfois l’arrestation de personnes non recherchées.
Ces technologies comportent également des biais discriminatoires majeurs. Une étude du Massachusetts Institute of Technology (MIT) révèle que les technologies d’intelligence artificielle présentent des préjugés liés au genre ou au type de couleur de peau. En analysant un logiciel de reconnaissance faciale, les chercheurs ont découvert un taux d’erreur de 0,8 % pour des hommes à la peau claire et de 34,7 % pour des femmes à la peau foncée.
Par ailleurs, comme je l’ai déjà souligné, ce texte vise à prévoir que des entreprises privées puissent être chargées de développer des traitements biométriques. C’est une aubaine pour ces entreprises, puisque le marché de la vidéosurveillance automatisée au niveau mondial représentait, en 2020, plus de 11 milliards de dollars.
Nous ne voulons certainement pas rendre ces technologies plus performantes et permettre aux entreprises de s’enrichir en exploitant la vie privée des personnes.
C’est la raison pour laquelle nous proposons au contraire de remplacer le dispositif d’amélioration en trompe-l’œil par un alinéa visant à indiquer que les critères sur lesquels se fondent ces traitements biométriques devront être disponibles en open source et que les données utilisées dans le cadre de ces traitements ne pourront être cédées ni vendues.
M. le président. L’amendement n° 5, présenté par MM. Dossus, Benarroche, Breuiller et Dantec, Mme de Marco, MM. Fernique, Gontard, Labbé et Parigi, Mme Poncet Monge, M. Salmon et Mme M. Vogel, est ainsi libellé :
Alinéa 10
Compléter cet alinéa par une phrase ainsi rédigée :
Lorsque les enregistrements sont transmis à des fins pédagogiques ou de formation, les données figurant dans les enregistrements sont anonymisées préalablement à leur utilisation.
La parole est à M. Thomas Dossus.
M. Thomas Dossus. Comme je n’ai eu de cesse de le rappeler dans cet hémicycle, les technologies biométriques comportent des risques unanimement dénoncés par les autorités indépendantes, comme la Défenseure des droits ou la Cnil.
Selon le rapport de 2021 de la Défenseure des droits sur les technologies biométriques, l’utilisation de la reconnaissance biométrique comporte un risque inhérent d’atteinte au droit et au respect de la vie privée, ainsi qu’à la protection des données. Elle peut entraîner des discriminations, voire les amplifier.
Pour la Cnil, la reconnaissance biométrique est particulièrement intrusive et comporte un certain nombre de risques pour la protection des données et de la vie privée.
Face à ces risques indéniables dans la vie privée des personnes, nous proposons a minima de renforcer les garanties pour les enregistrements utilisés à des fins pédagogiques en assurant l’anonymat des personnes figurant dans ces échantillons.
M. le président. Quel est l’avis de la commission ?
M. Philippe Bas, rapporteur. L’amendement n° 4 vise à prévoir la suppression de la collecte d’un échantillon permettant d’améliorer la maîtrise de la technologie de la reconnaissance faciale.
Si l’on ne fiabilise pas les traitements par l’expérimentation, alors les risques d’erreurs qu’il s’agit justement d’éviter seront maintenus, au lieu d’être réduits. J’émets donc un avis défavorable.
L’amendement n° 12 est assez voisin du précédent. En réalité, il est contraire à l’objectif de protection affiché, puisqu’il postule que les traitements biométriques pourraient être réutilisables. Or notre texte vise justement à éviter qu’ils ne le soient. J’émets donc un avis défavorable.
Enfin, l’amendement n° 5 vise à prévoir que, avant d’utiliser les données issues de traitement biométrique par reconnaissance faciale pour des formations, il faudrait anonymiser les images recueillies. Mais notre texte interdit précisément d’utiliser ces données à des fins de formation. Nous n’avons donc pas à prévoir l’anonymisation en cas de formation, puisque nous sommes opposés à une utilisation à visée pédagogique.
Notre texte étant plus restrictif que ce que semblent postuler les auteurs de l’amendement n° 5, j’émets également un avis défavorable sur ce dernier.
M. le président. Quel est l’avis du Gouvernement ?
Mme Dominique Faure, ministre déléguée. En ce qui concerne l’amendement n° 4, comme l’a souligné M. le sénateur Dossus, le Gouvernement est assez circonspect sur l’opportunité de cette proposition de loi.
Sur le fond, je ne suis pas convaincue que la rédaction de l’article 10 de la loi relative aux jeux Olympiques et Paralympiques de 2024 et portant diverses autres dispositions, conçue pour la détection d’événements génériques et modélisables, soit parfaitement transposable à la reconnaissance faciale. Ce point mériterait d’être examiné plus avant, en lien avec les experts de cette technologie. J’émets donc un avis défavorable.
En ce qui concerne l’amendement n° 12, rendre publics des codes sources des outils des forces de sécurité intérieure est incompatible avec l’exigence de sécurité. La confidentialité de leur fonctionnement technique est la condition sine qua non de leur efficacité. À défaut, les délinquants et criminels s’en serviront à l’insu des forces de sécurité intérieure. Nous ne pouvons donc qu’être défavorables à cet amendement.
Sur l’amendement n° 5, pour les mêmes raisons que M. le rapporteur, j’émets un avis défavorable.
M. le président. Je mets aux voix l’article 1er ter modifié.
(L’article 1er ter est adopté.)
Article 1er quater (nouveau)
I. – Le I de l’article 9 de la loi n° 78-17 du 6 janvier 1978 relative à l’informatique, aux fichiers et aux libertés est ainsi modifié :
1° Au premier alinéa, le mot : « dix-huit » est remplacé par le mot : « vingt » ;
2° Après le 8°, sont insérés des 9 et 10° ainsi rédigés :
« 9° Le président de l’Autorité de régulation de la communication audiovisuelle et numérique ou son représentant ;
« 10° Le président de l’Autorité de régulation des communications électroniques, des postes et de la distribution de la presse ou son représentant. »
II. – Le titre Ier de la loi n° 86-1067 du 30 septembre 1986 relative à la liberté de communication est ainsi modifié :
1° L’article 4 est ainsi modifié :
a) Au premier alinéa du I, le mot : « neuf » est remplacé par le mot : « dix » ;
b) Le même I est complété par un alinéa ainsi rédigé :
« Le président de la Commission nationale de l’informatique et des libertés, ou l’un de ses représentants, est membre de l’Autorité de régulation de la communication audiovisuelle et numérique. » ;
c) Au dernier alinéa du III et à la première phrase du premier alinéa du IV, les mots : « du dernier » sont remplacés par les mots : « de l’avant-dernier » ;
2° La première phrase du premier alinéa de l’article 5 est complétée par les mots : « , à l’exception du président de la Commission nationale de l’informatique et des libertés ou de son représentant ».
III. – Le titre II du livre III du code des postes et des communications électroniques est ainsi modifié :
1° L’article L. 130 est ainsi modifié :
a) Le premier alinéa est ainsi modifié :
– à la première phrase, le mot : « sept » est remplacé par le mot : « huit » ;
– avant la dernière phrase, est insérée une phrase ainsi rédigée : « Le président de la Commission nationale de l’informatique et des libertés, ou l’un de ses représentants, est membre de l’Autorité de régulation des communications électroniques, des postes et de la distribution de la presse. » ;
b) Le quatrième alinéa est complété par une phrase ainsi rédigée : « En cas de partage égal des voix, celle du président est prépondérante. » ;
c) La deuxième phrase du cinquième alinéa est complétée par les mots : « et du président de la Commission nationale de l’informatique et des libertés ou de son représentant » ;
d) À la première phrase du septième alinéa, après le mot : « restreinte », sont insérés les mots : « et du président de la Commission nationale de l’informatique et des libertés ou de son représentant » ;
2° La première phrase du premier alinéa de l’article L. 131 est complétée par les mots : « , à l’exception du président de la Commission nationale de l’informatique et des libertés ou de son représentant ». – (Adopté.)
Chapitre II
Expérimentation de dispositifs d’authentification biométrique sans consentement pour l’accès à certains grands événements
(Division nouvelle)
Article 2
Après le 4° de l’article 44 de la loi n° 78-17 du 6 janvier 1978 relative à l’informatique, aux fichiers et aux libertés, il est inséré un 4° bis ainsi rédigé :
« 4° bis À la seule fin d’assurer la sécurité d’un grand événement au sens de l’article L. 211-11-1 du code de la sécurité intérieure qui, par son ampleur ou par les circonstances particulières de son déroulement, est particulièrement exposé à des risques d’actes de terrorisme ou à des risques d’atteinte grave à la sécurité des personnes, les traitements conformes aux règlements types mentionnés au c du 2° du I de l’article 8 de la présente loi mis en œuvre par l’État, qui portent sur des données biométriques strictement nécessaires au contrôle de l’accès, à un autre titre que celui de spectateur, de participant ou de personne ayant son domicile dans la zone concernée sauf consentement explicite, libre et éclairé, à tout ou partie des établissements et des installations désignés par le décret mentionné au premier alinéa de l’article L. 211-11-1 du code de la sécurité intérieure, pour lesquels l’État a démontré un impératif particulier d’assurer un haut niveau de fiabilité de l’identification des personnes, dès lors qu’ils font l’objet d’une restriction de circulation et d’accès. Une information préalable des personnes dont les données biométriques sont traitées est réalisée par l’organisateur de l’événement ; ».