Direction de la séance |
Proposition de loi Discriminations par la pratique de tests individuels et statistiques (1ère lecture) (PROCÉDURE ACCÉLÉRÉE) (n° 399 , 398 ) |
N° 12 11 mars 2024 |
AMENDEMENTprésenté par |
|
||||||||
M. BENARROCHE, Mme Mélanie VOGEL, MM. Grégory BLANC et DANTEC, Mme de MARCO, MM. DOSSUS, FERNIQUE et GONTARD, Mme GUHL, MM. JADOT et MELLOULI, Mmes OLLIVIER et PONCET MONGE, M. SALMON et Mmes SENÉE et SOUYRIS ARTICLE 3 BIS |
Après l’alinéa 4
Insérer un paragraphe ainsi rédigé :
…. – L’article 225-2 du code pénal est complété par un alinéa ainsi rédigé :
« L’emploi d’un traitement algorithmique dont le fonctionnement a des effets discriminatoires au sens des articles 225-1 à 225-1-2 est puni de trois ans d’emprisonnement et de 45 000 euros d’amende dès lors que ces effets discriminatoires ont été révélés par un test de discrimination rendu public. »
Objet
Le présent amendement du groupe Écologiste – Solidarité et Territoires vise à lutter contre les effets discriminatoires de certains algorithmes en réprimant le recours à des traitements algorithmiques dès lors qu’un test statistique rendu public a démontré qu’il était discriminatoire.
Force est de constater que le recours au traitement algorithmique, fondé sur l’intelligence artificielle ou non, peut discriminer certaines personnes. Entre autres, des banques de données biaisées peuvent être à l’origine de décisions discriminatoires, comme l’a illustré l’Agence des droits fondamentaux de l’Union européenne qui a rappelé que : « les images faciales utilisées pour développer des algorithmes dans le monde occidental surreprésentent souvent les hommes blancs, avec un nombre plus faible de femmes et/ou de personnes d’autres origines ethniques. En conséquence, les systèmes de reconnaissance faciale fonctionnent bien pour les hommes blancs, mais pas pour les femmes noires ».
Compte tenu des conséquences lourdes que ces discriminations ont pour les victimes, il est primordial de lutter contre l’emploi de ces algorithmes discriminatoires.
Si l’emploi d’un algorithme discriminatoire peut être involontaire puisque sa nature discriminatoire n’est pas forcément connue, il peut également être volontaire.
Cette dernière situation préjudiciable peut se produire notamment quand un test statistique comme ceux conduits par l’organe nouvellement créé grâce au présent texte, prouve que le traitement algorithmique est discriminatoire. Dans ces cas, le recours à l’algorithme serait décidé même si ses conséquences discriminatoires sont connues.
Afin de protéger les victimes, il est proposé d’ériger en infraction l’emploi d’un traitement algorithmique dès lors qu’un test statistique rendu public a révélé que son fonctionnement était discriminatoire.
Le présent texte gagnerait à mieux tenir compte de cette situation gravement préjudiciable.