1. Proposition de directive du Parlement européen et du Conseil relative à l'adaptation des règles en matière de responsabilité civile extracontractuelle au domaine de l'intelligence artificielle (directive sur la responsabilité civile en matière d'IA) - COM(2022) 496
Dans son rapport sur les conséquences de l'intelligence artificielle (IA), de l'internet des objets (IoT) et de la robotique sur la sécurité et la responsabilité, annexé au livre blanc sur l'intelligence artificielle publié en février 2020, la Commission a souligné la nécessité de renforcer la sécurité des consommateurs et des utilisateurs de ces produits, dont l'autonomie est considérable, et de définir un cadre européen de responsabilité civile en cas de dommage, prenant en compte les différents types de dommages et incluant les différents responsables potentiels. Elle estime en effet qu'en l'état, l'insécurité juridique et la fragmentation des régimes nationaux de responsabilité constituent des obstacles au commerce transfrontière des produits et services dotés d'IA alors même que l'existence de règles efficaces en matière de responsabilité constitue une « incitation économique à respecter les règles de sécurité, ce qui contribue à éviter la survenue d'un dommage ».
Ce texte vient ainsi en complément de trois propositions de règlement du Parlement européen et du Conseil présentées par la Commission en 2021, et qui sont en cours de discussion :
- la législation sur l'intelligence artificielle qui établit des règles harmonisées concernant l'intelligence artificielle (COM(2021) 206 final),
- une autre modifie les règles applicables en matière de sécurité générale des produits (COM(2021) 346 final),
- tandis que la dernière renforce les exigences de sécurité applicables aux machines et produits connexes (COM(2021)202 final).
L'approche ciblée proposée a pour objet de garantir une protection prévisible aux victimes de dommages résultant de l'utilisation de systèmes d'IA, principalement en cas de faute d'un tiers, et de permettre une réparation effective. Pour faciliter la démonstration d'une faute, elle prévoit ainsi :
- un accès du demandeur, sur injonction du juge national en cas de refus du fournisseur, aux éléments de preuve pertinents sur un système d'IA à haut risque spécifique soupçonné d'avoir causé un dommage ;
- une présomption réfragable d'un lien de causalité en cas de faute.
La divulgation d'éléments de preuve doit être limitée à ce qui est nécessaire et proportionné pour étayer une action en réparation, en tenant compte de la protection des secrets d'affaires (mesures spécifiques de protection) et des informations liées à la sécurité publique ou nationale.
La présomption est subordonnée à la réunion de trois conditions cumulatives :
- démonstration de la faute du défendeur ou d'une personne dont le comportement relève de sa responsabilité, consistant en un manquement à un devoir de vigilance prévu par le droit européen ou le droit national visant directement à protéger contre le dommage survenu ;
- probabilité raisonnable que la faute ait influencé le résultat du système d'IA ou son incapacité à produire un résultat ;
- démonstration que le système d'IA ou l'incapacité de celui-ci à produire un résultat est à l'origine du dommage.
La démonstration d'une faute du fournisseur d'un système d'IA à haut risque ou d'une personne soumise aux obligations dudit fournisseur repose sur la démonstration que l'une des exigences imposées par la législation européenne sur l'IA en matière de conception ou de développement n'a pas été respectée.
Si l'action en réparation est dirigée contre un utilisateur d'un système d'IA à haut risque, le demandeur doit prouver que celui-ci ne s'est pas conformé aux obligations figurant dans la notice d'utilisateur ou a exposé le système d'IA à des données d'entrée sous son contrôle qui ne sont pas pertinentes au regard de la destination du système.
Fondée sur l'article 114 du TFUE, qui prévoit que des mesures peuvent être prises pour assurer le bon fonctionnement du marché intérieur, la proposition de directive entend garantir un niveau de protection harmonisée en matière d'utilisation de l'intelligence artificielle, dont la mise en oeuvre est confiée aux juridictions nationales.
En conséquence, le texte ne semble pas porter atteinte au principe de subsidiarité ; le groupe de travail sur la subsidiarité a donc décidé de ne pas intervenir plus avant sur ce texte au titre de l'article 88-6 de la Constitution.