DEUXIÈME PARTIE
UNE ACTION PUBLIQUE QUI SE STRUCTURE POUR FAVORISER L'ÉMERGENCE DE SOLUTIONS D'IA AU SERVICE DE L'ENVIRONNEMENT, MAIS DES ÉVOLUTIONS ENCORE TRÈS EXPLORATOIRES

I. FAIRE ÉMERGER DES SOLUTIONS D'« IA FOR GREEN » : UNE AMBITION DE L'ACTION PUBLIQUE AUX NIVEAUX NATIONAL ET EUROPÉEN

A. UN CADRE EUROPÉEN QUI ENTEND CONCILIER INNOVATION TECHNOLOGIQUE ET PROTECTION DE L'ENVIRONNEMENT

Le règlement européen sur l'intelligence artificielle (AI Act) du 13 juin 202449(*) ne comporte pas de chapitre dédié à l'environnement.

Les enjeux environnementaux de l'IA sont cependant pris en compte à un double titre : dans les dispositions visant à faciliter les investissements et l'innovation, d'une part, dans le cadre des exigences de durabilité environnementale requis pour les systèmes d'IA mis sur le marché, d'autre part.

· Partant du constat que les systèmes d'IA connaissent une évolution rapide qui requiert la mise en place de nouvelles formes de régulations et d'expérimentations, l'AI Act permet d'aborder indirectement les questions environnementales à travers une régulation uniforme comportant des mécanismes de soutien favorables aux investissements et à l'innovation. Il prévoit notamment la mise en place par les États membres de « bacs à sable réglementaires » (« sandboxes »).

L'objectif est de permettre aux développeurs d'IA, y compris dans le secteur environnemental, de tester leur système dans un espace contrôlé mais n'exigeant pas au départ le respect de l'ensemble du cadre réglementaire applicable. La possibilité leur est donnée d'évaluer leur technologie en conditions réelles et avec une garantie de sécurité juridique. Ce dispositif apparaît intéressant pour accélérer la mise sur le marché de technologies vertes, en particulier celles de PME et de jeunes entreprises, par exemple pour les solutions d'économie circulaire ou les systèmes de gestion énergétique basés sur l'IA.

L'obligation faite aux États membres de mettre en place au moins un bac à sable réglementaire opérationnel en matière d'IA entrera en vigueur à compter du 2 août 2026 ; il conviendra d'en évaluer la mise en oeuvre sur le territoire français.

En classant les systèmes d'IA par niveaux de risque, l'AI Act entend contribuer à réduire les incertitudes réglementaires et à créer un cadre juridique propice à l'investissement dans des solutions innovantes. Les dispositifs d'IA à faible risque bénéficient d'exigences réglementaires minimales, ce qui est de nature à faciliter leur diffusion rapide.

Degrés de risque des technologies d'IA pour l'environnement : que dit l'AI Act ?

L'AI Act classe les systèmes d'IA en quatre catégories de risque, avec des exigences croissantes s'agissant de la protection des droits fondamentaux et des données sensibles. Il ne fournit pas une liste exhaustive des technologies concernées, a fortiori dans le domaine de l'environnement, les usages devant être évalués au cas par cas.

 Interdiction en raison d'un risque inacceptable

Certains systèmes d'IA, comme ceux exploitant des données sensibles à des fins de manipulation comportementale ou de surveillance indiscriminée, sont interdits. Le secteur de l'environnement semble peu concerné.

 Haut risque

Les systèmes d'IA dans des domaines sensibles (énergie, gestion des ressources naturelles ou surveillance environnementale à grande échelle) doivent répondre à des exigences strictes en matière de transparence et de sécurité. Cela pourrait par exemple inclure la protection des données sensibles dans le cadre de la collecte d'informations personnelles et géolocalisées sur le comportement énergétique pour optimiser des infrastructures vertes.

 Risque limité

Ces systèmes sont conditionnés à des obligations de transparence, par exemple pour informer les utilisateurs qu'ils interagissent avec une IA. S'agissant de l'environnement, des services comme des chatbots pour sensibiliser aux économies d'énergie, pourraient entrer dans cette catégorie.

 Faible risque

Les systèmes non intrusifs, comme des outils éducatifs ou de sensibilisation à l'environnement utilisant l'IA, sont soumis à des obligations minimales.

· S'agissant des impacts environnementaux de l'IA, la réglementation européenne ne définit pas de normes de durabilité des systèmes d'IA en tant que telles, renvoyant la responsabilité d'une telle définition aux États membres.

Des exigences relatives à la transparence dans l'utilisation des données et des ressources sont néanmoins prévues, ce qui constitue une obligation particulièrement pertinente pour les systèmes à fort impact environnemental, tels que ceux utilisés dans les infrastructures énergétiques et les transports.


* 49 Règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024 établissant des règles harmonisées concernant l'intelligence artificielle, entré en vigueur le 1er août 2024 selon un calendrier échelonné.

Les thèmes associés à ce dossier

Partager cette page