N° 379

SÉNAT

SESSION ORDINAIRE DE 2024-2025

Enregistré à la Présidence du Sénat le 20 février 2025

RAPPORT D'INFORMATION

FAIT

au nom de la délégation sénatoriale à la prospective (1)
sur « 
IA et environnement »,

Par M. Jean-Baptiste BLANC, Mmes Nadège HAVET
et Christine LAVARDE,

Sénateurs et Sénatrice

(1) Cette délégation est composée de : Mme Christine Lavarde, président ; MM. Christian Bruyen, Guislain Cambier, Mme Cécile Cukierman, M. Bernard Fialaire, Mme Nadège Havet, M. Jean-Raymond Hugonet, Mme Annick Jacquemet, MM. Yannick Jadot, Jean-Jacques Michau, Mme Vanina Paoli-Gagin, M. Christian Redon-Sarrazy, Mme Anne Ventalon, vice-présidents ; MM. Bruno Belin, Rémi Cardon, Stéphane Sautarel, secrétaires ; MM. Pierre Barros, Jean-Baptiste Blanc, François Bonneau, Christophe Chaillou, Raphaël Daubet, Vincent Delahaye, Mme Patricia Demas, M. Éric Dumoulin, Mme Amel Gacquerre, MM.  Roger Karoutchi, Khalifé Khalifé, Vincent Louault, Louis-Jean de Nicolaÿ, Alexandre Ouizille, Didier Rambaud, Mme Marie-Pierre Richer, MM. Pierre-Alain Roiron, Jean Sol, Mmes Sylvie Vermeillet, Mélanie Vogel.

AVANT-PROPOS

Christine Lavarde, présidente de la délégation à la prospective

À l'instar des révolutions technologiques générales que furent la machine à vapeur, l'électricité ou encore Internet, l'intelligence artificielle (IA) pourrait profondément changer la façon dont nous vivons et travaillons, et ceci dans tous les domaines. Pourtant, dans le secteur public, les expérimentations restent à ce jour limitées, les annonces modestes, et la parole très prudente.

Pour l'État, les collectivités territoriales et les autres acteurs publics, le potentiel de l'IA générative est immense. Bien utilisée, elle pourrait devenir un formidable outil de transformation de l'action publique, rendant celle-ci non seulement plus efficace - qu'il s'agisse de contrôle fiscal ou de diagnostic médical - mais aussi plus proche des citoyens, plus accessible, plus équitable, plus individualisée et finalement plus humaine - avec une capacité inédite à s'adapter aux spécificités de chaque élève, de chaque demandeur d'emploi, de chaque patient ou de chaque justiciable.

Pour autant, le secteur public n'est pas un secteur comme les autres. Si l'IA n'est qu'un outil, avec ses avantages, ses risques et ses limites, son utilisation au service de l'intérêt général ne pourra se faire qu'à condition que les agents, les usagers et les citoyens aient pleinement confiance.

La confiance, cela passe d'abord par la connaissance : par son approche sectorielle, la délégation espère contribuer à démystifier une technologie qui suscite encore beaucoup de fantasmes, et à en montrer concrètement les possibilités comme les limites.

La confiance, c'est aussi et surtout l'exigence : une IA au service de l'intérêt général, c'est une IA au service des humains (agents et usagers), et contrôlée par des humains (citoyens). C'est aussi une IA qui s'adapte à notre organisation administrative et à notre tradition juridique, et qui garantit le respect des droits et libertés de chacun. C'est, enfin, une IA qui n'implique ni dépendance technologique, ni renoncement démocratique.

QUELQUES DÉFINITIONS D'INTÉRÊT GÉNÉRAL

· Intelligence artificielle (IA) : terme apparu en 1956 qui, dans son sens actuel, désigne un programme informatique (algorithme) fondé sur l'apprentissage automatique, ou apprentissage machine (machine learning). Cette technique permet à la machine d'apprendre par elle-même à effectuer certaines tâches à partir d'un ensemble de données d'entraînement. Elle repose sur une approche statistique (IA connexionniste), par opposition à l'informatique « classique » (IA symbolique), qui consiste à suivre une suite de règles logiques préétablies (de type « SI... ET... ALORS... »).

· Apprentissage profond (deep learning) : perfectionnement de l'apprentissage automatique grâce à une organisation en réseaux de neurones artificiels, où chaque « neurone » est une fonction mathématique qui ajuste ses paramètres au fur et à mesure de l'entraînement.

Les progrès sont spectaculaires à partir des années 2010 du fait de 3 facteurs : la sophistication des modèles, la disponibilité des données, et surtout l'explosion de la puissance de calcul.

L'IA est désormais présente dans de très nombreuses applications de notre quotidien.

· IA générative : modèles d'IA comme ChatGPT spécialisés dans la création de contenus originaux et réalistes, en réponse à une instruction formulée en langage naturel (le prompt). Le contenu peut être du texte, mais aussi du code informatique, un fichier Excel, une image (Dall-E, Midjourney), un fichier audio ou vidéo (Sora), etc.

· Grands modèles de langage ou LLM (large language models) : modèles d'IA spécialisés dans le traitement du langage naturel, dans toutes les langues.

Entraînés sur d'immenses quantités de textes, ils établissent des relations mathématiques entre les mots et les notions sous-jacentes, à partir de calculs de probabilités.

Les IA génératives sont construites sur des LLM (ex. modèle GPT-4 pour ChatGPT).

Le lancement de ChatGPT, fin 2022, par la société OpenAI a provoqué dans le monde entier une prise de conscience du potentiel de l'IA générative.

Ce robot conversationnel (chatbot) permet à chacun d'accéder à un modèle à la fois :

généraliste : il peut traiter tout type de demande, là où la plupart des modèles sont spécialisés dans une tâche précise ;

multimodal : il peut générer différents contenus (texte, image, graphique, etc.), faire une recherche en ligne ou exécuter un programme informatique ;

ergonomique : les échanges se font simplement (dans un chat), en langage naturel, et ne demandent aucune compétence technique particulière ;

peu coûteux : 22 euros par mois pour le modèle le plus puissant du marché (GPT-4), gratuit pour GPT-3.5.

Quelques grands modèles de langage (LLM) concurrents de ChatGPT/GPT-44

L'ESSENTIEL

L'intelligence artificielle (IA) est appelée à jouer un rôle majeur dans l'action publique à l'ère de l'anthropocène, caractérisée par des tensions croissantes sur les ressources naturelles et des changements rapides de l'environnement.

Dès 2018, le rapport « Villani » soulignait que l'IA allait « nous permettre de comprendre la dynamique et l'évolution des écosystèmes en se basant sur la réalité de leur complexité biologique, d'optimiser la gestion de nos ressources, notamment énergétiques, de préserver notre environnement et d'encourager la biodiversité »1(*). Depuis, ce potentiel de l'IA au service de l'environnement n'a cessé de trouver des applications concrètes et les innovations se poursuivent.

Lutte contre les îlots de chaleur dans l'aménagement urbain, suivi du recul du trait de côte, réduction de la pollution en ville, amélioration du tri des déchets ou aide au déploiement des sources d'énergie renouvelable : les exemples sont nombreux.

Associée à une puissance de calcul sans précédent, l'IA est en effet capable de traiter et de mettre en relation une grande quantité de données, ce qui en fait un outil particulièrement intéressant dans un domaine où les enjeux d'adaptation de nos sociétés répondent à une équation complexe. L'urgence à agir est grande, mais la difficulté à faire émerger une vision collective, qui puisse concilier transition écologique et transformation économique et sociale, ne l'est pas moins.

10 exemples parmi d'autres où l'IA change la donne en matière d'environnement

Secteur

Objectif

Exemple de solution fondée sur l'IA

Énergie

Réduction des consommations énergétiques dans le bâtiment

Le dispositif « Advizeo » utilise l'IA pour automatiser le suivi et le pilotage des bâtiments à distance, pour plus de flexibilité dans la gestion énergétique.

Agriculture

Aide à la décision pour les exploitants agricoles

L'outil Pixagri développé par TerraNIS permet d'évaluer la biomasse des cultures intermédiaires pour aider les agriculteurs à réduire l'apport d'engrais tout en optimisant leurs pratiques.

Gestion des déchets

Amélioration du tri des déchets

Avec Max AI, l'entreprise Veolia utilise des caméras optiques et l'IA pour améliorer les performances du tri.

Gestion de l'eau

Amélioration de la maintenance prédictive pour une gestion durable des ressources hydriques

« Mission 90 + » s'appuie sur l'IA pour la détection acoustique de fuites dans le réseau d'eau potable.

Mobilité

Mesure de l'impact de la mobilité sur l'air et le climat

Le projet « Predict AI'r » a permis la création d'un dispositif prédictif des impacts de la mobilité grâce à l'IA, en analysant les données de bornage téléphonique et en quantifiant l'empreinte climatique quotidienne des trajets.

Biodiversité

Connaissance et préservation des habitats naturels

Le projet « CarHab » a pour objectif de cartographier d'ici 2026 la végétation de tout le territoire français pour établir une carte nationale des habitats naturels et semi-naturels.

Lutte contre les incendies

Estimer le risque d'incendie

Le projet GOLIAT utilise l'IA pour représenter le risque de survenue d'incendie par commune en Corse.

Prévision de phénomènes extrêmes

Alerte sur le risque de canicule

Utilisation du machine learning sur des données du modèle de simulation « PlaSim » par une équipe du CNRS de Lyon pour démontrer la capacité de l'IA à prédire les canicules jusqu'à un mois à l'avance

Forêts

Mesurer le stock de carbone contenu dans la biomasse végétale

L'entreprise KANOP utilise des techniques d'apprentissage profond pour mettre en évidence le stock de carbone contenu dans la biomasse végétale et qualifier la capacité des forêts à séquestrer le carbone atmosphérique.

Urbanisme et aménagement du territoire

Urbanisme durable

Avec « Urba AI », l'IA est utilisée pour prendre en compte les enjeux écologiques dans les PLU et suivre les objectifs environnementaux du schéma directeur francilien.

Sans verser dans le « solutionnisme technologique », la question posée aujourd'hui est de savoir dans quelle mesure l'IA peut contribuer à l'accélération de la transition écologique. Quels sont par exemple ses apports concrets à des politiques comme celle du « Zéro artificialisation nette » (ZAN) ou pour répondre aux difficultés posées par le retrait-gonflement des argiles, qui nécessite de connaître la nature du sous-sol sur une dizaine de mètres ? Quelle place occupe-t-elle dans les travaux des opérateurs publics sur les problématiques environnementales ?

Les avancées promises par l'IA dans la mobilisation des données environnementales au service de la transition écologique étant réelles, l'action publique tente de se structurer pour favoriser l'émergence de solutions d'IA au service de l'environnement. Les usages avancés se trouvent cependant encore en phase très exploratoire.

Le renforcement de l'« exploitabilité » des données, l'amélioration de la gouvernance ainsi que la mise en place d'un modèle économique adapté font partie des conditions de réussite de l'IA pour l'environnement.

*

Le rapport ne prétend pas réaliser un inventaire exhaustif des cas d'usage de l'IA dans le domaine de l'environnement mais a pour objectif de fournir un état des lieux objectif des contributions possibles de l'IA à l'action publique dans ce domaine et des difficultés rencontrées dans l'émergence de solutions.

Il n'a par ailleurs pas pour objet d'approfondir la question de plus en plus prégnante et transversale des conséquences environnementales de l'IA, que nos choix politiques et sociétaux ne peuvent ignorer.

L'empreinte environnementale de l'IA : une question équivoque

Le caractère immatériel de l'IA ne doit pas faire oublier que celle-ci consomme d'importantes quantités de ressources et d'énergie. Elle tend ainsi à aggraver l'empreinte environnementale du numérique2(*).

La quantification précise des impacts de l'IA sur l'environnement reste toutefois délicate :

 Elle suppose en effet de mesurer la totalité des conséquences directes et indirectes de l'exécution d'un programme d'IA, en ne se limitant pas à son empreinte carbone (émissions de gaz à effet de serre).

Cela signifie qu'il faut prendre en compte chaque étape du cycle de vie des infrastructures et des équipements numériques (calculateurs, matériels présents dans les centres de données, terminaux des utilisateurs), de leur fabrication jusqu'à leurs fin de vie et éventuel recyclage en passant par leur utilisation.

Doivent être intégrées au raisonnement les conséquences de l'extraction des matières premières (minerais et métaux précieux), de la consommation d'énergie et d'eau nécessaires au fonctionnement des centres de données et au refroidissement des serveurs ou encore l'emprise au sol de l'implantation de nouveaux centres de données.

Or comme le montre le schéma ci-après, ces éléments ne font pas tous l'objet d'une évaluation approfondie aujourd'hui.

Source : Anne-Laure Ligozat, Enjeux environnementaux de l'IA, 20243(*)

 Il manque en outre des données ouvertes relatives, par exemple, à la part représentée par l'IA dans la consommation énergétique totale des serveurs au sein des centres d'hébergement ou encore à celle des usages faisant intervenir des systèmes d'IA parmi les différentes utilisations des terminaux.

 Enfin, la question de savoir si les services apportés par l'IA dans les politiques environnementales sont globalement susceptibles de compenser l'empreinte écologique de cette même IA reste ouverte, les relations entre l'IA et l'environnement étant à double tranchant.

Il n'en demeure pas moins que face aux besoins croissants en infrastructures matérielles et en ressources énergétiques des nouvelles IA, les alertes sur leur empreinte écologique grandissante se multiplient.

L'IA est l'une des raisons principales de la croissance des besoins en électricité des centres de données.

Comme en témoignent les récents rapprochements des géants du numérique avec l'industrie nucléaire, les besoins en électricité des centres de données sont appelés à croître de façon soutenue.

Selon l'Electric Power Research Institute (EPRI), ces centres pourraient compter pour 10 % de la consommation électrique des États-Unis en 2030 contre 4 % aujourd'hui4(*). Les data centers étant concentrés géographiquement, cette évolution soulève des enjeux localement importants, comme par exemple en Irlande où la consommation électrique des centres a dépassé celle du secteur résidentiel en 2024.

Cette croissance s'explique en grande partie par l'essor de systèmes d'IA de plus en plus grands et généralistes - comme l'illustre le graphique ci-après -, fondés sur des techniques d'apprentissage profond et des opérations d'inférence très énergivores.

Source : JLL Research, 2024, OurWorldInData, EpochAI

Les grands modèles de langage (LLM) des IA génératives s'appuient en effet sur des réseaux profonds de neurones artificiels entraînés sur des volumes de données considérables, ce qui nécessite une puissance de calcul et une capacité de stockage toujours plus élevées.

Selon OpenAI, l'entraînement du modèle de langage GPT-3 a consommé une quantité d'énergie équivalente à la consommation annuelle de 120 foyers américains. Quant à son successeur, GPT-4, il aurait nécessité une consommation d'électricité quarante fois supérieure, soit l'équivalent de celle de près de 5 000 foyers américains5(*).

Compte tenu de l'utilisation de sources très majoritairement carbonées pour produire l'électricité nécessaire au fonctionnement des serveurs, les émissions de CO2 liées à l'IA générative et aux LLM sont particulièrement élevées.

Selon des chercheurs de l'Université du Massachusetts, le seul entraînement d'un modèle d'IA comptant 200 millions de paramètres représente une empreinte carbone supérieure à celle de cinq voitures pendant leur cycle de vie6(*). L'entraînement de GPT-3.5 aurait coûté l'équivalent carbone de 136 allers-retours Paris-New-York. Pour un modèle de langage de 1,75 milliard de paramètres, une phase d'entraînement peut nécessiter plus de 650 000 kWh d'électricité et générer 280 tonnes de CO2, ce qui correspond à un vol entre New York et San Francisco pour 300 passagers.

À titre de comparaison, la consommation annuelle moyenne d'un foyer de deux personnes en France est d'environ 4 679 kWh7(*) et les modèles d'IA les plus avancés, tels que ChatGPT-4, Gemini Ultra ou encore LlaMa-3 utilisent désormais des centaines de milliers de paramètres à des fins d'apprentissage.

La consommation d'eau liée à l'IA est également en forte hausse.

Les processeurs graphiques (GPU) spécifiques aux IA étant très sollicités, ils produisent beaucoup de chaleur, laquelle est évacuée par un système de refroidissement à eau. De grandes quantités d'eau sont ainsi utilisées pour refroidir les serveurs des centres de données.

En 2023, des chercheurs de l'Université de Californie ont révélé que l'entraînement de GPT-3 dans les centres de données de Microsoft aux États-Unis avait nécessité près de 700 000 litres d'eau douce potable8(*). Leur étude anticipe qu'en 2027, l'IA pourrait être à l'origine de prélèvements d'eau s'élevant entre 4,2 et 6,6 milliards de mètres cubes, soit l'équivalent de quatre à six fois la consommation annuelle du Danemark ou de la moitié de celle du Royaume-Uni. Des conflits d'usage pourraient apparaître dans les zones exposées à un risque de stress hydrique ou de sécheresse.

Dans ce contexte, plusieurs solutions sont mises en avant pour aller vers une IA plus frugale.

Parmi les solutions identifiées pour réduire l'empreinte environnementale de l'IA figurent la conception d'algorithmes optimisés (« green algorithms »), l'amélioration de l'efficacité énergétique des matériels informatiques et le recours accru à des sources d'électricité décarbonées, comme un mix énergétique intégrant le nucléaire et les énergies renouvelables9(*).

Le développement de systèmes d'IA plus frugaux ne doit toutefois pas faire oublier le risque d'un effet rebond des consommations, qui pourrait venir contrarier les effets vertueux escomptés. Ce phénomène est observé lorsque les économies d'énergie attendues avec l'utilisation d'une technologie énergétiquement plus efficace conduisent in fine à un accroissement des usages et donc des consommations. À titre d'exemple, une IA permettant un trafic plus fluide sera à l'origine d'un gain de temps pour les utilisateurs, d'un éloignement des domiciles et d'une augmentation des distances parcourues, donc paradoxalement d'une hausse de la consommation de carburant.

À défaut de régulation juridique fine, les outils et référentiels en faveur d'une IA frugale se développent.

Compte tenu de ces enjeux, la protection de l'environnement fait désormais partie intégrante des considérations sur l'éthique de l'IA adoptées au niveau international. Il en va notamment ainsi dans la Recommandation du Conseil de l'OCDE adoptée le 22 mai 2019 par 42 pays10(*), dont la France, et de la Recommandation sur l'éthique de l'IA de l'Unesco adoptée en 202111(*).

À l'échelle européenne, le livre blanc sur l'IA de la Commission européenne adopté en février 202012(*) met également en avant cet enjeu écologique.

En France, la loi « Réduire l'empreinte environnementale du numérique » du 15 novembre 202113(*) traite quant à elle de l'empreinte écologique du numérique sans aborder spécifiquement l'IA.

Cependant, sous l'impulsion de l'Ademe et de l'Inria notamment, les travaux d'évaluation, de certification et de normalisation des systèmes fondés sur l'IA se poursuivent. C'est l'une des missions de l'observatoire Ademe/RCEP sur les impacts environnementaux du numérique, qui intègre les aspects liés à l'IA générative et tient compte de la nécessité de disposer d'une connaissance fine du cycle de vie des outils et des composants numériques. En collaboration avec l'Afnor, l'Écolab a par ailleurs publié un référentiel général pour l'IA frugale. Il fournit une méthodologie d'évaluation de l'impact environnemental et met en avant les bonnes pratiques.

Des outils ouverts tels que « Green Algorithms » ou « Code Carbon » sont également mis en place pour aider les développeurs à évaluer l'impact énergétique des algorithmes d'IA14(*).

Le recours à l'IA et le choix de l'outil doivent idéalement faire l'objet d'une balance environnementale au cas par cas, les IA spécialisées demeurant par exemple moins énergivores et plus efficaces que les IA polyvalentes.

PREMIÈRE PARTIE
LES AVANCÉES MAJEURES PROMISES PAR L'IA DANS LA MOBILISATION DES DONNÉES ENVIRONNEMENTALES AU SERVICE DE LA TRANSITION ÉCOLOGIQUE

L'IA constitue un puissant outil d'aide à la décision dans le domaine de l'environnement, où elle offre des perspectives de progrès très prometteuses. Les avancées permises sont principalement de trois ordres :

une meilleure connaissance de l'environnement, pour une prise de décision plus éclairée ;

une amélioration de la capacité de simulation et de prévision, pour anticiper et s'adapter aux enjeux, en particulier dans les situations de crise ;

un renforcement des processus de décarbonation et d'optimisation énergétique dans des secteurs variés.

L'attention portée à l'IA frugale permet par ailleurs de concilier innovation et durabilité environnementale dans le cadre d'un numérique plus responsable.

I. L'IA POUR CONNAÎTRE L'ENVIRONNEMENT, SIMULER ET PRÉDIRE

L'IA permet de mieux connaître, comprendre ou anticiper des situations ou phénomènes qui relevaient jusqu'alors de la résolution numérique d'équations physiques.

A. LA CONNAISSANCE DE L'ENVIRONNEMENT

La contribution des techniques d'IA à la connaissance de notre environnement ou de certaines de ses composantes fait partie de ses apports les plus importants. Cela concerne en particulier les sols et la biodiversité sur terre comme en mer.

1. La quantification et la qualification des sols

La nécessité de disposer de données précises et fiables sur l'usage des sols et leur qualité constitue un enjeu de taille pour le suivi de leur occupation et l'atteinte du « zéro artificialisation nette » (ZAN) à l'horizon 205015(*). Il s'agit d'accompagner les choix de renaturation des sols en fonction de leurs propriétés.

Dans cet objectif, l'automatisation permise par l'IA a apporté une contribution décisive à la production d'une nouvelle génération du référentiel national d'occupation des sols (l'OCS GE16(*)), qui a vocation à être utilisé à différents échelons territoriaux pour la mise en oeuvre des politiques publiques d'aménagement et d'urbanisme.

Produit par l'IGN17(*) à partir principalement des prises de vue aériennes du territoire mises à jour tous les trois ans, puis valorisé par le Cerema18(*), il constitue une base de données vectorielle de référence pour la description de l'occupation et de l'usage du sol de l'ensemble de la France hexagonale et ultramarine (DROM).

L'optimisation de la chaîne de production passe par la recherche d'une automatisation la plus complète possible. Le recours à des techniques d'IA de type « deep learning », associé à l'utilisation d'une infrastructure dotée de capacités de calcul importantes et d'un vaste espace de stockage, permet de répondre à cet objectif.

À l'issue d'une phase d'annotations et d'entraînement, l'analyse des images fait intervenir des réseaux de neurones profonds et le recours à l'IA permet de structurer des données non structurées.

L'IA peut également contribuer à améliorer la qualité des images en faisant de la « super résolution » : lorsque les pixels sont trop gros, des méthodes d'IA sont mises en oeuvre pour retrouver de la résolution, en combinant plusieurs images ou en utilisant des exemples pour essayer de prédire ce que serait une image mieux résolue dans un domaine particulier.

Le processus de production de l'OCS GE dans le cadre de l'observatoire de l'artificialisation

Source : IGN, CNIG commission « besoins et usages » (juin 2022)

L'utilisation de l'IA dans la nouvelle chaîne de production de l'OCS GE a d'abord été expérimentée dans le cadre d'un prototype réalisé sur le territoire du SCOT du bassin d'Arcachon, puis le département pilote du Gers. Cette expérimentation est achevée depuis septembre 2022. Le déploiement national et la production industrielle sont désormais en cours, l'intégralité de la France devant être couverte en 2025.

Dans ce cas d'espèce, le recours à l'IA permet à la fois une réduction importante des coûts19(*), en réduisant la part humaine dans l'interprétation des photos, et une diminution des délais de production, avec un rythme de couverture d'un tiers de la France par an en régime de croisière.

Par comparaison, la première génération de l'OSC GE, produite selon des méthodes traditionnelles, couvre seulement 40 % du territoire national.

« L'IA nous a permis, en gros, de le faire trois fois plus vite pour trois fois moins cher. »

Sébastien Soriano, directeur général de l'IGN, à propos de la cartographie de l'occupation des sols

L'IA permet ainsi d'affiner sensiblement notre connaissance du sol sur lequel viennent s'exercer de multiples pressions (urbanisation, intensification des pratiques agricoles, surexploitation, pollution, changement climatique, etc.).

2. La connaissance et la protection de la biodiversité et des écosystèmes

La connaissance de la biodiversité et des écosystèmes bénéficie également des progrès permis par l'IA.

· Pour la flore terrestre, l'outil participatif Pl@ntNet développé par une équipe de l'Inria20(*) permet à chacun d'identifier plantes et arbres, de détecter des maladies et de recenser les zones de présence à travers des inventaires. Accessible sur une application mobile, il utilise massivement des techniques avancées d'IA. Les observations les plus fiables sont désormais incluses dans la base de données internationales du système mondial d'information sur la biodiversité (« Global Biodiversity Information Facility » ou GBIF). Il s'agit d'un réseau international fournissant un accès libre aux données sur les formes de vie terrestre pour inviter à mieux les protéger.

L'Inria indique que sa nouvelle version (GeoPl@ntNet) permettra d'obtenir l'établissement de cartes de biodiversité, par exemple dans les zones faisant l'objet de projets d'aménagement, avec un rôle potentiel d'appui aux politiques publiques comme en matière de ZAN.

· Les techniques d'IA apportent également une contribution essentielle à la connaissance de la biodiversité marine, en particulier celle des espaces côtiers et dans les écosystèmes qui restent encore peu explorés comme ceux des grands fonds.

§ Mieux prédire la biodiversité des poissons récifaux

S'agissant des systèmes récifaux, il manque aujourd'hui un ensemble d'indicateurs écologiques et des modèles prédictifs pertinents pour connaître leur dynamique et mieux anticiper leurs évolutions. Cette insuffisance est liée au coût élevé des dispositifs de suivi dans ce domaine. L'amélioration de la connaissance requiert un haut niveau d'expertise mais aussi des modèles capables d'assurer un suivi plus global là où les connaissances existantes sont relativement circonscrites géographiquement et temporellement.

Dans ce contexte, l'IA et ses modèles d'apprentissage profond constituent un précieux atout du fait de leur capacité à analyser finement des données brutes non structurées telles que des images satellitaires, des vidéos sous-marines ou encore des données environnementales spatialisées (température de l'eau, profondeur des fonds marins...).

Ces techniques permettent d'envisager la définition d'une nouvelle génération d'indicateurs et de modèles à partir de données massives peu exploitables avec des approches classiques.

C'est l'objectif poursuivi par le projet FISH-PREDICT coordonné par l'Université de Montpellier21(*). Il consiste à analyser un volume très important de données afin de caractériser des écosystèmes côtiers de la mer Méditerranée et de l'océan Pacifique grâce à des modèles de distribution d'espèces d'un nouveau type. La technique s'appuie sur des modèles d'apprentissage profond tels que les réseaux neuronaux convolutifs ou des « vision transformers »22(*).

Elle permettra d'affiner la connaissance des paramètres environnementaux dans toutes leurs variations spatiales et de mieux expliquer la distribution des espèces. Des interactions complexes comme l'influence des bateaux de plaisance sur les ressources pélagiques ou l'impact de l'aménagement de la côte sur la biodiversité marine pourront également être analysés.

Source : https://dataanalyticspost.com/projet-fish-predict/

§ Répertorier la micro-faune des océans

Dans le cadre du projet « Meiodyssea », une équipe de chercheurs de l'Ifremer en collaboration avec d'autres scientifiques japonais, hollandais et allemands, entreprennent de décrire, en l'espace de trois ans, 125 à 200 nouvelles espèces de la « méiofaune », c'est-à-dire des petits organismes de moins d'un millimètre nichés dans les sédiments des cinq océans. Ce projet repose sur une méthode originale combinant les techniques d'imagerie 3D haute résolution et l'IA.

Un logiciel d'IA sera entraîné pour détecter, mesurer et décrire les caractéristiques morphologiques et morphométriques des nouvelles espèces, ce qui leur permettra de gagner en efficacité et en temps dans la structuration des nombreuses informations extraites de l'analyse des échantillons. Selon les chercheurs, grâce à cette méthode originale, les nouvelles espèces présentes dans un échantillon devraient pouvoir être détectées en 15 minutes au lieu de plusieurs semaines.

La description complète devrait prendre quelques jours au lieu de quelques mois23(*).

Le projet permettra plus généralement de mieux comprendre le rôle de ces espèces invisibles à l'oeil nu dans le fonctionnement et la dynamique des écosystèmes marins, certaines espèces, comme certains nématodes, jouant un rôle avéré de « sentinelles », c'est-à-dire d'indicateurs de contamination chimique de l'environnement.

Mieux connaître la méiofaune permettra ainsi de mieux cerner l'impact des activités humaines sur l'océan. En outre, ces espèces dotées d'une capacité hors norme de vivre dans des conditions extrêmes sont susceptibles d'inspirer des développements dans le secteur des biotechnologies.

· Pour l'exploration de l'océan profond et de ses ressources en métaux rares, l'IA pourrait également jouer un rôle transformateur grâce aux progrès des véhicules autonomes (AUV) et des robots télécommandés (ROV) sous-marins.

Équipés de capteurs et de technologies d'imagerie avancées, ces véhicules naviguent de manière autonome dans des milieux complexes. Les algorithmes d'IA permettent de collecter, traiter et analyser en temps réel des données environnementales et biologiques, rendant l'exploration sous-marine à la fois plus sûre et efficace.

L'IA et l'exploration des ressources des grands fonds marins

L'IA excelle dans le traitement des données sonar et d'imagerie pour créer des cartes détaillées des fonds marins et révéler de nouvelles caractéristiques géologiques et des habitats inconnus.

Les algorithmes d'IA identifient les zones écologiquement sensibles, comme les habitats marins vulnérables ou abritant une biodiversité unique24(*), des récifs coralliens profonds ou des zones de reproduction de certaines espèces, ce qui permet par exemple d'orienter les opérations d'exploration des ressources vers des zones moins exposées.

Dans le domaine de l'exploitation minière (deep sea mining), l'IA permet une détection précise des ressources. Les algorithmes analysent les données géologiques et les images des fonds marins pour localiser des dépôts de nodules polymétalliques ou de sources hydrothermales. L'IA peut ainsi fournir des informations que les méthodes traditionnelles ne permettaient pas d'obtenir, accélérant considérablement l'évaluation des ressources25(*). En outre, les robots avancés alimentés par l'IA peuvent automatiser des tâches complexes comme l'excavation ou le transport de matériaux, réduisant la nécessité d'intervention humaine dans des environnements dangereux.

Malgré ces avancées, des défis subsistent, tels que la robustesse des systèmes d'IA dans des conditions extrêmes où la communication et l'alimentation en énergie sont limitées. Les cadres réglementaires peinent par ailleurs à suivre le rythme des avancées technologiques dans un domaine qui demeure écologiquement controversé26(*). Enfin, les coûts initiaux élevés des systèmes d'IA freinent leur adoption à grande échelle.

B. LES POSSIBILITÉS AUGMENTÉES DE SIMULATION ET DE PRÉDICTION

Des techniques d'IA sont mises en oeuvre pour réaliser des simulations dans une démarche prédictive ou d'alerte précoce.

Elles permettent ainsi d'anticiper des changements à court, moyen ou long terme, en particulier dans le domaine des services météorologiques et climatiques.

1. L'état des nappes phréatiques et la gestion de l'eau

Pour le suivi des nappes phréatiques, le Bureau de recherches géologiques et minières (BRGM) utilise le machine learning comme un complément à la modélisation physique « classique » ou en substitution de modèles physiques pour développer l'outil « météaunappes ». À partir de séries temporelles de suivi du niveau des nappes et de leur composition chimique, celui-ci permet d'anticiper le comportement saisonnier de certaines nappes en fonction de scénarios climatiques.

L'IA permet en effet de construire des modèles statistiques de prévisions plus robustes en tenant compte de divers paramètres agissant sur le niveau des nappes (pluviométrie, température ou encore propriété du sol). Elle permet également d'obtenir une connaissance plus fine aux endroits ne disposant pas de relevés issus de capteurs (piézomètres) ou de définir un emplacement adapté pour ce type de capteur afin de parvenir à une estimation efficace du niveau d'un aquifère.

Cette utilisation permet de fournir aux autorités une information prédictive relativement fiable pour la gestion de l'eau à l'échelle de certains territoires.

2. La prévention des inondations

Pour la prévention des inondations, le projet AI4FLOOD27(*) auquel participe le Cerema s'appuie sur l'IA pour suivre les mesures hydrométéorologiques de terrain et contribuer à renforcer l'efficacité de leur analyse, en l'absence ou en complément de prévisionnistes experts. De façon complémentaire, l'analyse des images radar par l'IA a pour objectif d'améliorer les prévisions pluviométriques.

Le projet concerne quatre bassins pilotes frontaliers de l'Espagne situés en dehors du réseau de vigilance relevant de l'État. À terme, les jeux de données de référence des modèles doivent s'enrichir pour alimenter un méta-modèle qui sera capable de réaliser des calculs hydrauliques quasiment en temps réel sur quelques centaines de noeuds et de contribuer à un système d'alerte précoce. Une couverture plus exhaustive du territoire pourra ainsi être envisagée.

3. La modélisation des évolutions météorologiques et climatiques et des événements extrêmes

L'IA apporte également une contribution significative à la modélisation dans le domaine de la météorologie et des sciences du climat.

· L'IA et la prévision du temps

S'agissant de la météo, des techniques d'IA ont fait leur entrée à Météo-France dès les années 1990 afin d'améliorer notamment le « post-traitement » statistique des prévisions météorologiques, c'est-à-dire le processus visant à affiner des données brutes issues d'un modèle de calcul pour renforcer la pertinence des résultats.

Mais c'est surtout dans la période récente que des développements novateurs en IA ont permis de faire progresser certaines parties des modèles de prévision. Le recours à des méthodes d'apprentissage automatique comme des forêts d'arbres de décisions développées en interne est désormais habituel, notamment pour le post-traitement statistique des prévisions.

L'utilisation de réseaux de neurones convolutifs, adaptés au traitement d'image, est également fréquent. Les applications sont multiples : prévision à court terme de la couverture nuageuse, estimation des précipitations à partir d'images satellites, nettoyage d'images radar, détection de neige sur des images de webcams ou encore identification d'orages violents dans les résultats des modèles de prévision numérique du temps28(*).

Le recours à ces techniques permet de traiter en quelques secondes des images produites par des centaines de webcams sur le territoire français et, par exemple, d'identifier celles présentant de la neige ou du brouillard. Le prévisionniste est ainsi mis en capacité de localiser directement les zones concernées par des phénomènes potentiellement dangereux, alors qu'il devait auparavant visualiser les images une par une.

Dans ce contexte, le recours à l'IA fait gagner un temps considérable dans la prévision météorologique.

Les émulateurs par IA sur lesquels travaille Météo-France sont entraînés sur des données issues de relevés d'observations et de prévisions29(*). Ils sont ensuite capables de « produire l'équivalent de certaines prévisions ou d'affiner certaines d'entre elles avec une extrême rapidité, déplaçant le coût vers la production de l'information nécessaire à l'entraînement des systèmes »30(*). La question de savoir si des modèles météorologiques entièrement basés sur l'IA se substitueront aux modèles physiques peut ainsi se poser.

L'IA va-t-elle remplacer les modèles météorologiques actuels ?

La chaîne de production des prévisions météorologiques fait intervenir plusieurs étapes. Schématiquement :

- des données d'observation de l'atmosphère, des surfaces ou encore de l'océan sont collectées par satellites ou des moyens in situ ;

- ces données alimentent plusieurs fois par jour des modèles numériques représentant les processus atmosphériques ;

- les résultats de ces simulations brutes sont retraités pour produire les informations de prévision.

Depuis quelques années, les techniques d'apprentissage profond paraissent offrir une alternative intéressante à certaines composantes de cette chaîne. La recherche se poursuit pour le développement de systèmes de prévision intégralement fondés sur l'apprentissage capables d'égaler la finesse spatiale des modèles actuels (de l'ordre de 1 kilomètre à 500 mètres).

Cependant, l'amélioration des modèles de prévision actuels doit également se poursuivre pour les raisons suivantes rappelées par Météo-France :

- la bonne exploitation d'un système de prévision numérique fondé sur l'IA requiert l'accès à des données adéquates pour l'apprentissage. Or ces données sont aujourd'hui issues des modèles physiques et le modèle d'IA doit être régulièrement entraîné ;

- des progrès doivent encore être réalisés dans l'adaptation du post-traitement pour garantir la valeur des informations produites par ces nouveaux systèmes ;

- par rapport aux modèles physiques, les modèles fondés sur l'IA soulèvent un enjeu crucial de transparence (ou d'« explicabilité »), susceptible de freiner les développements en cours si la question de la « boîte noire » n'est pas réglée par la garantie d'une « IA de confiance ». Il s'agit de permettre aux prévisionnistes de s'approprier les nouveaux outils en en comprenant le fonctionnement.

Au total, les deux approches ont vocation à cohabiter à court et moyen terme, le passage à un modèle d'IA intégral étant encore une perspective relativement lointaine.

Selon les scientifiques, seule une utilisation régulière pendant plusieurs années permettra de savoir si les modèles d'IA pourront pleinement s'intégrer à la prévision d'un point de vue opérationnel.

· L'IA et la modélisation du climat

§ L'IA est également de plus en plus employée dans la science du climat.

Des méthodes d'IA sont utilisées pour « émuler » - simuler numériquement - des modèles climatiques régionaux. Des projections climatiques mondiales voient ainsi leur échelle réduite à 10 kilomètres horizontalement, ce qui permet de multiplier les possibilités de simulation régionale sans nouvelles modélisations.

Dans ce cadre, selon Météo-France, l'apport de l'IA est décisif pour caractériser de manière fine les sources d'incertitude telles que l'influence de la variabilité naturelle, c'est-à-dire les fluctuations du climat qui se produisent sans l'influence directe des activités humaines. De premiers développements en ce sens ont porté sur les températures et les précipitations.

Météo-France indique que l'IA peut également être utilisée pour remplacer certaines parties onéreuses des modèles climatiques globaux, y compris en l'absence d'observations de référence. Cela concerne en particulier la prise en compte du transfert radiatif, c'est-à-dire l'influence des rayonnements. Des simulations numériques sont alors produites, sur le fondement desquelles des paramétrages reposant sur l'IA sont développés. Cette technique permet à l'établissement de produire des simulations climatiques à un coût numérique réduit.

§ La prévision des phénomènes extrêmes

De nombreuses équipes à travers le monde contribuent à faire progresser la recherche sur l'apport de l'IA pour anticiper des phénomènes localement dangereux.

C'est le cas du projet « ARCHES »31(*) conduit par l'Inria en partenariat avec le laboratoire LATMOS/ISPL. Ce projet explore les perspectives d'utilisation de l'IA pour mieux prévoir des événements météorologiques extrêmes, notamment les « risques en cascade ».

Dans le cadre d'une approche interdisciplinaire, l'équipe de recherche a démontré qu'une adaptation des réseaux neuronaux convolutifs, un type avancé d'apprentissage profond, permettait de prédire avec précision la trajectoire des ouragans, qui sont connus pour être difficiles à anticiper. De nombreuses questions restent à explorer et la recherche se poursuit, en particulier sur la compréhension des changements soudains d'intensité des ouragans.

Trois réseaux neuronaux convolutifs (CNN) sont entraînés séparément à partir de trois catégories de données (vents ; géopotentiel ; historique et métadonnées). Le réseau final fusionné est réentraîné avant de fournir une prévision de déplacement de l'ouragan sur 24 heures.

Source : Giffard-Roisin et al., « Tropical Cyclone Track Forecasting Using Fused Deep Learning From Aligned Reanalysis », Frontiers in Big Data, 28 janvier 202032

L'IA trouve également des applications pour la prédiction des canicules. Une équipe interdisciplinaire de scientifiques français32(*), du CNRS, du CEA et de l'Université Claude-Bernard Lyon 1 a en effet mis au point une IA capable d'évaluer la probabilité de la survenue de vagues de chaleur, à partir de données environnementales telles que l'humidité des sols et l'état atmosphérique, jusqu'à un mois à l'avance.

Cette technologie de prévision climatique avancée utilise le deep learning et des modèles statistiques intégrant de nombreux paramètres. Entraînée sur 8 000 ans de données simulées avec le modèle climatique PlaSim de l'Université de Hambourg, cette IA génère des prévisions en quelques secondes, en complément des modèles météorologiques traditionnels.

Pour pallier le manque de données sur les événements rares, les chercheurs prévoient de combiner cette solution avec des algorithmes de simulation conçus il y a cinq ans, afin d'optimiser la fiabilité des prévisions et de comparer les résultats.

4. Les jumeaux numériques : une approche très prometteuse pour l'aide à la décision

L'approche des jumeaux numériques connaît des développements rapides sur les questions environnementales. Associées aux progrès permis par l'IA, ces techniques ouvrent de nouveaux horizons pour l'aide à la décision fondée sur les possibilités de simulation.

Le concept de « jumeau numérique » : bref détour historique

Un jumeau numérique constitue une réplique numérique d'une réalité physique. Il permet de suivre et d'anticiper les effets de divers facteurs sur cette réalité grâce à des modèles de simulation et de prévision. D'abord cantonné au secteur industriel, le terme recouvre aujourd'hui des réalités diverses, allant de la gestion d'un bâtiment ou d'une infrastructure à l'appréhension d'un territoire, qu'il s'agisse d'un quartier urbain, d'un espace rural, d'une ville dans son ensemble ou d'une étendue géographique encore plus vaste.

Le jumeau numérique est conçu pour être synchronisé avec le monde physique, à travers des flux de données arrivant par exemple de capteurs ou de systèmes qui extraient des informations sur la représentation modélisée.

 Le sauvetage d'Apollo 13 : premier usage d'un réseau de « jumeaux numériques »

Si le concept de jumeau numérique a aujourd'hui le vent en poupe, sa première utilisation remonte à l'accident de la mission Apollo 13 en 1970.

À 330 000 kilomètres de l'équipage, les ingénieurs de la NASA disposaient de simulateurs du fonctionnement des principaux composants de la capsule endommagée. Contrôlés par un réseau d'ordinateurs, les simulateurs pouvaient être synchronisés avec les données provenant de l'engin spatial. L'opération de diagnostic et de sauvetage de la mission a ainsi été rendue possible en grande partie grâce à des « doubles numériques » en interaction les uns avec les autres.

 Un concept popularisé dans l'industrie à partir des années 2000

Au plan conceptuel, le « jumeau numérique » trouve ses prémices dans l'idée de « monde miroir » tel que décrit par David Gelernter en 199333(*). Ce dernier imaginait un prototype complet d'une ville ou du monde peuplé de jumeaux numériques interconnectés.

Le concept a ensuite été popularisé dans l'industrie dans les années 2000, dans le cadre de la création d'un centre de gestion du cycle de vie des produits sous l'impulsion de Michael Grieves de l'Université du Michigan34(*). Il s'agissait d'associer un objet physique à un double numérique capable d'en observer le fonctionnement en temps réel afin d'en suivre le cycle de vie. La réplique numérique offrait un support sur lequel des forces pouvaient être appliquées afin de modéliser le comportement d'un l'objet physique et ses déformations.

Le jumeau numérique étant mis à jour par la réception de flux d'informations provenant de capteurs, senseurs et dispositifs électroniques, cela a ouvert la voie à une approche innovante fondée sur la possibilité de simulations.

 Une utilisation croissante dans de multiples domaines, portée par les progrès de l'IA

Grâce au progrès technologique (accroissement des performances et miniaturisation du matériel informatique, rapidité croissante des réseaux de télécommunications avec le ultra haut débit), les techniques du jumeau numérique connaissent aujourd'hui de nombreuses applications avérées ou potentielles, non seulement dans le domaine industriel, pour optimiser les processus de production et la maintenance (aéronautique, industrie automobile, nucléaire), mais aussi en médecine par exemple (essais « in silico ») et désormais dans le domaine des sciences environnementales.

Par la prise en compte du comportement, dans le temps et l'espace, d'un objet qui évolue dans son environnement, le jumeau numérique permet d'adopter une approche holistique de la représentation : un seul espace doté d'échelles multiples et d'une représentation en quatre dimensions doit permettre d'offrir un double virtuel d'une réalité physique quelle qu'elle soit, comportant à la fois son passé, son présent et ses futurs possibles.

S'agissant de l'adaptation aux enjeux environnementaux, la combinaison de l'IA avec la modélisation en 3D très précise dans le cadre de jumeaux numériques permettra de tester des scénarios d'évolution en fonction de divers paramètres.

a) Une « carte du futur » pour connaître l'environnement, simuler et planifier

Les caractéristiques du jumeau numérique en font aujourd'hui un outil prisé pour l'adaptation aux enjeux environnementaux.

Son intérêt est qu'il peut apprendre en permanence à partir de multiples sources et, à mesure que la contrepartie physique change, se mettre à jour à une vitesse beaucoup plus rapide que les modèles de cartographie et de simulation précédents.

De multiples problématiques peuvent être concernées : gestion de l'énergie, évolution du trait de côte, suivi de la santé des forêts, transition agricole ou encore politique écologique.

L'IA intervient à différents niveaux pour intégrer et réduire la complexité des flux de données, par exemple avec des espaces latents (espaces identifiés comme optimaux pour résoudre une tâche), accroître la rapidité des simulations (métamodèle) et pour transformer les données du simulateur en aide à la décision.

b) Des échelles géographiques diverses, du niveau local à la Terre toute entière

§ Le développement d'un jumeau numérique sismique en milieu géologique complexe en Guadeloupe

L'École spéciale des travaux publics (ESTP)35(*) collabore avec le BRGM et d'autres partenaires à l'encadrement d'une thèse sur le développement d'un jumeau numérique sismique en milieu géologique complexe pour les risques industriels.

Lancé en octobre 2022, ce projet consiste en la construction de plusieurs jumeaux numériques dits « multi-physiques multi-échelles », interopérables par objet d'intérêt (faille, grandes structures sismologiques environnantes, lithostructure sous-jacente au site d'étude, etc.). L'étude concerne une zone de la commune de Capesterre-Belle-Eau en Guadeloupe, qui inclut le barrage hydraulique Dumanoir36(*).

Un double objectif est poursuivi : comprendre l'importance relative des différents processus qui expliquent la survenue des séismes et améliorer la prédiction fine des mouvements du sol. L'enjeu est d'assurer l'intégrité des installations industrielles critiques et d'accompagner le développement d'un territoire soumis à des pressions grandissantes en termes d'aménagement.

Le projet repose sur des outils comme du machine learning pour traiter automatiquement de très grandes quantités de données générées par les scénarios de séismes et sur le développement de workflows semi-automatiques.

Il est prévu que la méthodologie développée puisse être appliquée à d'autres sites concernés par des risques industriels avérés37(*).

§ Le jumeau numérique de la France et de ses territoires

À l'échelle de la France entière, un ambitieux projet de développement d'un jumeau numérique a récemment été lancé par l'IGN en collaboration avec le Cerema et l'Inria. À terme, ce « jumeau numérique de la France et de ses territoires » doit offrir une cartographie du futur du territoire en fonction de différents scénarios d'évolution des conditions climatiques et de l'action publique.

Pour ce faire, d'après les éléments communiqués par l'Inria, l'IA sera utilisée de façon massive : pour la spatialisation et les représentations polymorphes (paysages, ouvrages d'art, infrastructures) mais aussi pour des simulations (risques environnementaux, épidémiologie, biodiversité...)38(*).

Parmi les cas d'usage possibles touchant à l'environnement, on peut citer :

- la problématique de la gestion du littoral, pour laquelle le jumeau numérique permettra par exemple de visualiser en dynamique des scénarios d'évolution pour les infrastructures ou les biens menacés ;

- l'enjeu de la résilience du système agricole, avec l'anticipation du changement climatique sur les types de culture ou la modélisation à grande échelle des évolutions des pratiques agricoles ;

- la question de la gestion durable des forêts en simulant son évolution en fonction de diverses hypothèses climatiques.

Quelques exemples d'utilisateurs et d'usages possibles

Élu de collectivité, le jumeau numérique m'aide à prendre en compte l'objectif de Zéro artificialisation nette. Il me permet de calculer l'impact de mes choix d'aménagement sur l'artificialisation des sols et clarifie les arbitrages entre les contraintes de sobriété foncière et de réponse aux besoins.

Citoyen, je participe aux consultations publiques grâce au jumeau numérique national en accédant à un outil de médiation me permettant de visualiser simplement les choix d'aménagement et l'impact sur mon cadre de vie.

Bureau d'études, le jumeau numérique me donne accès à des données fiables et pertinentes ainsi qu'à des outils de simulation des risques de submersion à court et long terme.

Agence de l'eau, le jumeau numérique me permet de simuler l'effet de différentes pratiques agricoles sur l'eutrophisation des cours d'eau et la contamination éventuelle de nappes phréatiques par des produits phytosanitaires.

Pendant l'incendie [d'une forêt], le jumeau numérique sert de support d'information aux services de secours. Des simulations permettent d'anticiper l'évolution du feu et guide les pompiers dans leurs actions.

Source : IGN

La mobilisation de modèles de simulation facilitera l'élaboration d'outils d'aide à la décision mais aussi d'intermédiation pour éclairer le débat public.

§ Du jumeau numérique de l'adaptation au changement climatique au jumeau numérique de la Terre

À l'échelle européenne, le lancement début 2022 de l'initiative « Destination Terre »39(*) doit permettre de développer un jumeau numérique très précis de la Terre à l'horizon 2030.

Il aura vocation à réunir dans un socle commun plusieurs jumeaux numériques thématiques, parmi lesquels les deux premiers, dévoilés en juin 2024, sont consacrés, d'une part, à l'adaptation au changement climatique40(*), d'autre part, aux phénomènes météorologiques extrêmes.

À terme, ces jumeaux numériques fonctionneront en synergie pour permettre la prise en compte des interactions entre le climat et d'autres dimensions environnementales ou sociales des politiques publiques. Ils permettront ainsi d'anticiper leurs impacts dans les différents secteurs des politiques concernées.

Source : Commission européenne

Les données sont collectées à partir de sources variées (satellites avec notamment le programme européen Copernicus, réseaux d'observation mondiaux, capteurs terrestres, observations in situ) et alimentent une base de données. Le jumeau intègre des modèles climatiques avancés, qui simulent les processus physiques, chimiques et biologiques et incluent des simulations des interactions entre l'atmosphère, les océans, les glaces polaires, les forêts et les activités humaines.

Les infrastructures de calcul à haute performance (HPC) permettent de gérer et de traiter les gigantesques quantités de données. L'IA, avec l'apprentissage automatique, est utilisée pour améliorer les modèles, détecter des motifs complexes dans les données et fournir des prévisions rapides et fiables.

Grâce à une plateforme de services, les utilisateurs pourront accéder à des outils d'IA, des analyses de données à grande échelle et des capacités de surveillance et de simulation du système terrestre. Les secteurs concernés par l'impact du changement climatique et les évènements extrêmes (agriculture, forêt, énergies renouvelables, santé publique, gestion de l'eau) pourront adapter les outils et données disponibles à leurs besoins.

Le jumeau numérique a ainsi vocation à devenir également un support pour la recherche scientifique, en laissant la possibilité aux chercheurs d'explorer les interactions complexes entre différents « sous-systèmes » comme les océans, l'atmosphère et la biosphère.

c) Des interrogations en suspens

Si la technologie du jumeau numérique laisse entrevoir des progrès considérables pour la simulation, des interrogations demeurent.

La réflexion sur sa place dans l'aide à la décision n'en n'est en effet qu'à ses débuts. En témoigne le groupe de travail du Conseil national d'information géolocalisée (CNIG) avec l'IGN, le Cerema et l'Inria41(*). Ses travaux visent notamment à clarifier la terminologie employée, recenser les cas d'usage et les bonnes pratiques des jumeaux numériques territoriaux en termes de capacités d'analyse et de simulation, et à évaluer l'apport véritable de l'IA dans la modélisation.

La réflexion porte également sur la capacité d'un jumeau numérique à être un parfait modèle de la réalité. Indépendamment de la question de la mise à jour des modèles et de la synchronisation des données, il s'agit des limites liées à la « calculabilité » d'une simulation de plus en plus complexe du monde42(*). Les progrès considérables de l'IA, en particulier de l'IA générative, semblent permettre de repousser les limites de la prédictibilité. La question peut néanmoins se poser de savoir à partir de quand ou dans quelles situations un jumeau ne parviendra plus à refléter correctement la réalité. En tout état de cause, l'enjeu d'intelligibilité des processus sur lesquels se fonde le modèle devra être pris en compte.

Enfin, de nombreux jumeaux numériques sont en cours de développement, y compris par de grands acteurs privés en France et surtout à l'étranger. NVIDIA a par exemple annoncé la création d'Earth-2, jumeau numérique du climat terrestre. Fujitsu exploite de son côté l'IA et les données des drones sous-marins pour créer un jumeau numérique de l'océan. Le CNES et QuantCube ont récemment élaboré un prototype de jumeau numérique pour la gestion des risques d'inondation. L'articulation entre ces différents modèles publics et privés et la façon dont les acteurs s'en saisiront restent des questions ouvertes.

II. L'IA POUR S'ADAPTER AUX ENJEUX ENVIRONNEMENTAUX ET CONTRIBUER À LA DÉCARBONATION

L'IA apporte une contribution significative à l'adaptation aux enjeux écologiques : décarbonation, gestion durable des ressources ou encore préservation de la biodiversité. Les dispositifs en place ou en développement concernent tous les secteurs, avec des degrés de recours à l'IA variables.

A. UN RECOURS DÉJÀ BIEN ANCRÉ POUR L'OPTIMISATION DES RESSOURCES ET DES INFRASTRUCTURES DANS DE NOMBREUX SECTEURS

Dans le cadre de la transition écologique, l'IA est identifiée comme un levier pour optimiser l'exploitation ou la gestion des ressources, des équipements et des infrastructures. De nombreuses entreprises sont à l'origine d'applications et de services innovants visant à améliorer les chaînes logistiques et l'aide à la décision ou à la maîtrise des risques.

1. L'agriculture

C'est le cas en particulier dans le domaine de l'agriculture, où le marché de l'IA connaît une croissance économique importante.

L'analyse d'images est par exemple déjà utilisée en viticulture, pour réaliser des « cartes de vigueur » ou détecter les attaques de mildiou, comme le propose l'entreprise « Chouette ». Cette technique permet de suivre en temps réel les parcelles pour en optimiser la gestion. Sur le fondement des images obtenues par des capteurs embarqués et des drones équipés de caméras, des analyses sont générées par croisement des algorithmes d'IA avec des modèles agronomiques. Des alertes ou bulletins de suivi sont ensuite émis pour des pratiques viticoles plus précises et raisonnées.

Cette technique est également appliquée à l'élevage, par exemple pour analyser le comportement des animaux à partir d'images vidéos et contribuer à leur suivi sanitaire. C'est ce que propose une entreprise comme « AI Herd » qui met en avant un outil permettant de détecter des signaux d'alerte dans les mouvements et les interactions des animaux dans les exploitations de vaches laitières.

Source : https://www.aiherd.io/fr

Avec les progrès de l'apprentissage automatique, l'IA est en outre de plus en plus utilisée pour analyser et contrôler une multitude de facteurs (température, hygrométrie, intrants, traitements mécaniques, type de semences...), pour limiter les émissions de CO2 et tendre vers des pratiques plus agroécologiques.

L'importance de la recherche en IA pour capturer les gaz à effet de serre dans l'agriculture

« Depuis quelques années, de nombreuses universités développent des systèmes à base d'intelligence artificielle, le plus souvent en open source, pour optimiser la capture de gaz à effet de serre dans l'agriculture. C'est par exemple le cas de l'école de la résilience Derr à Standford, qui travaille sur différents modèles à base de machine learning. C'est également le cas de l'Université du Minnesota, qui développe des solutions en partenariat avec le ministère de l'agriculture des États-Unis, ou encore de Cornell University, qui a monté un ensemble de cours sur cette pratique. Le secteur privé n'est pas en reste. Microsoft par exemple a initié le programme AI for Health, un programme de bourses sur différents thèmes, au sein desquels les sujets d'optimisation de l'agriculture à des fins environnementales sont particulièrement présents. Et, surtout, Google investit fortement dans sa filiale Mineral, visant à accroître la quantité de données disponibles dans l'agriculture afin de faciliter l'apprentissage des modèles d'IA. Enfin, de nombreuses start-up se sont également positionnées sur ce sujet. Terramera et Regen Network sont parmi celles dont les programmes sont les plus concrètement avancés et accessibles dans certains pays. »

Gilles Babinet, Green IA. L'intelligence artificielle au service du climat,2024, p. 150

L'entreprise « Assolia »43(*) commercialise par exemple une technologie pour aider les agriculteurs à optimiser la rotation des cultures sur leurs parcelles. Il s'agit d'un outil collaboratif qui propose de croiser des données sur les caractéristiques de l'exploitation avec des statistiques climatiques et météorologiques et des informations issues des coopératives et des marchés. L'objectif est ensuite d'identifier les meilleures combinaisons de cultures et de fournir des scénarios d'assolement sur trois à sept ans.

Enfin, l'IA offre des perspectives d'automatisation avancée, qu'il s'agisse de la robotisation du désherbage, de l'utilisation de tracteurs autonomes pour le labourage ou les récoltes, du contrôle de la qualité des sols ou encore de la robotisation de la cueillette ou du tri dans le maraîchage.

2. La pêche

Dans le secteur de la pêche, des techniques d'IA sont utilisées pour développer des « filets intelligents » dans le cadre de la pêche au chalut. L'enjeu est de minimiser les captures aléatoires d'espèces sans distinction de poissons pour réduire le gaspillage et préserver les ressources.

Fondé sur le traitement d'images complexes, le projet « Game of Trawls »44(*) consiste à entraîner des réseaux de neurones sur une grande quantité de données afin qu'ils puissent mesurer l'impact des engins de pêche et identifier les espèces entrant dans les filets.

 J. Simon - Ifremer - Projet Game of Trawls

Grâce à un réseau de capteurs et de vision par ordinateur, les pêcheurs sont informés en temps réel de la présence plus ou moins importante de bancs de poissons et des espèces concernées. Ils peuvent, à l'aide d'un dispositif d'évacuation (fermeture du cul de chalut, piège de dérivation, flash lumineux, signaux acoustiques...), trier les poissons sous l'eau pour ne garder que ceux qui les intéressent ou relever les filets de pêche pour ne plus racler les fonds marins.

3. L'énergie

Dans le domaine de l'énergie et de la gestion des réseaux électriques, l'IA peut permettre d'équilibrer l'offre et la demande et de passer à un système plus intermittent et distribué (smart grids) mais également d'améliorer la prévention des incidents sur le réseau.

L'outil d'IA « CartoLine BT » d'Enedis permet par exemple de renforcer l'efficacité de la maintenance prédictive sur le réseau de distribution d'électricité basse tension. L'analyse des données collectées grâce aux compteurs Linky sur la fourniture d'électricité conduit à l'identification automatique des situations pouvant entraîner des pannes.

4. L'économie circulaire

S'agissant de l'économie circulaire, le projet DiagTP 360 élaboré par le Cerema en partenariat avec LEXISTEMS permet de mobiliser l'IA pour réduire l'impact environnemental des travaux publics.

En ayant recours à un module d'IA générative, ce projet doit permettre aux maîtres d'ouvrage et maîtres d'oeuvre de réaliser un inventaire des matériaux présents sur le chantier, d'identifier des possibilités de réemploi et de valorisation, d'estimer les quantités de déchets à évacuer et de procéder à un calcul des indicateurs environnementaux (émissions de CO2, consommation d'énergie).

5. Les transports

Enfin, dans le secteur des transports et de la mobilité, l'IA peut contribuer à optimiser en temps réel les déplacements et à améliorer la maintenance et l'exploitation des infrastructures45(*).

À titre d'exemple, dans le transport maritime, l'IA sert à mieux utiliser les données météorologiques pour décarboner le secteur de la navigation en optimisant les trajets en mer. Fin 2023, le secrétariat d'État chargé de la mer a par exemple apporté son soutien à Marine Weather Intelligence, une start-up46(*) dont le projet porte sur l'identification des routes maritimes optimales.

L'objectif est d'entraîner des outils d'IA sur des modèles numériques qui intègrent de nombreuses données atmosphériques et océaniques (vents, courants, etc.) afin de réduire l'incertitude des prévisions. Après la sélection des données pertinentes pour chaque zone de navigation et une phase d'apprentissage s'appuyant sur les capacités du supercalculateur Datarmor, le modèle final doit être capable de fournir rapidement des prédictions des états de mer et des recommandations de routage. Celui-ci pourrait être mieux adapté aux conditions réelles, contribuant à une baisse de la consommation de carburant.

B. L'IA POUR RENFORCER LA RÉSILIENCE FACE AUX DÉFIS ÉCOLOGIQUES

La mobilisation de l'IA pour renforcer la résilience face aux conséquences du dérèglement climatique fait également l'objet de nombreuses initiatives.

Il s'agit d'accompagner les choix sociétaux et individuels (lieux de résidence à privilégier, types d'habitat à retenir, équipements et infrastructures à prévoir) pour s'adapter à la nouvelle donne environnementale.

· Optimiser le développement des énergies renouvelables

§ L'équipe « Arches » de l'Inria travaille en particulier sur des projets visant à optimiser la conception et l'implantation des énergies renouvelables.

À titre d'exemple, une collaboration avec EDF a pour objectif de mieux prévoir la circulation des vents à moyen terme (5-10 ans) de manière à ce que l'entreprise publique puisse mieux concevoir et positionner les éoliennes.

La circulation des vents étant affectée de changements comportant encore des incertitudes, des outils d'IA sont entraînés sur des données d'EDF portant sur le passé très récent afin de déterminer les localisations optimales.

Parallèlement, les impacts du changement climatique sur les températures et les radiations solaires sont étudiés pour concevoir de nouvelles générations de panneaux photovoltaïques.

Pour ces travaux, des modèles d'IA sont entraînés en utilisant les données actuelles ainsi que des simulations physiques récentes. Après entraînement, le modèle d'IA peut en quelque sorte « traduire » des simulations physiques et générer des prévisions des vents, des températures et de l'irradiance solaire à des échelles plus fines que celles accessibles via les simulations numériques.

Pour connaître le potentiel photovoltaïque des bâtiments, la start-up NamR, partenaire de l'IGN47(*), a développé une IA capable de définir la configuration optimale pour l'installation de panneaux solaires sur les toits.

Plus largement, des techniques de machine learning, deep learning et vision par ordinateur permettent de modéliser des données sur les logements recueillies auprès de centaines de milliers de sources et de produire des propositions personnalisées pour une adresse donnée afin de transformer l'habitat par une rénovation énergétique et un plan d'adaptation au changement climatique. Chaque proposition s'accompagne d'une estimation des coûts et des bénéfices associés aux travaux conseillés.

· S'adapter aux îlots de chaleur

Dans les milieux fortement urbanisés, l'IA est également utilisée de façon croissante pour l'identification d'îlots de chaleur à partir de capteurs ou d'images satellites.

Elle peut ainsi apporter une aide précieuse pour prioriser les actions de renaturation en fonction de critères comme la faisabilité technique, les conséquences pour le confort de vie et les caractéristiques socio-économiques du lieu concerné.

· Exploiter les données génomiques pour l'adaptation au changement climatique

§ Dans un tout autre domaine enfin, le recours à l'IA pourrait, selon l'Inria, s'avérer utile pour détecter des séquences génétiques adaptées au changement climatique.

En effet, une masse considérable de données de séquençage d'ADN continue de croître dans les banques de données génomiques publiques. L'accès à ces données permet des avancées importantes non seulement en médecine mais aussi dans le domaine de l'écologie, de l'agronomie et pour la surveillance des océans. Or elles restent sous-exploitées.

Dans ce contexte, le projet « Omicfinder » de l'Inria a pour objectif la mise au point d'un nouveau moteur de recherche global par lequel interroger, grâce notamment au développement de nouveaux algorithmes, les séquences nucléotidiques à partir de l'immense quantité de données génomiques accessibles au public.

C. LE RECOURS À L'IA DANS LA GESTION DU RISQUE ET DES CRISES

Au-delà des enjeux de connaissance de l'environnement et d'adaptation, le recours à l'IA peut également s'avérer précieux pour la gestion de crise. C'est le cas par exemple face au risque de submersion marine ou d'incendie de forêt.

· Réagir à un risque de submersion lorsque le temps est un enjeu critique

Au titre de l'appui à la gestion de crise, le BRGM a développé un outil d'aide à la décision fondé sur la définition de scénarios de risques de submersion à l'échelle de collectivités.

Traditionnellement, les modèles de « risque submersion » sont complexes et consomment un temps de calcul important. En temps de crise, l'approche par métamodèles prédéfinis permet de contrer la relative lenteur des modèles physiques et de fournir aux cellules de crise des réponses sur les niveaux de risques.

Cette méthode a été testée récemment sur la côte Aquitaine48(*) : il s'agit d'un atlas de simulations numériques de submersion sur le bassin d'Arcachon obtenu par du machine learning non supervisé et des méthodes statistiques très avancées.

L'IA permet ici non seulement de renforcer la finesse de l'analyse mais aussi la réactivité grâce à un gain de temps considérable.

· Intervenir précocément en cas d'incendie

Des développements encourageants sont également en cours pour orienter l'usage de l'IA vers la détection de départs de feu de forêt afin de rendre la plus précoce possible l'intervention des services de secours.

En partenariat avec le service départemental d'incendie et de secours (SDIS) du département de l'Ardèche, l'association Pyronear propose depuis 2023 un système expérimental associant des caméras de vidéosurveillance à un micro-ordinateur équipé d'un logiciel d'apprentissage profond.

Source : https://pyronear.org/

Celui-ci a été entraîné à reconnaître des départs d'incendie sur des dizaines de milliers d'images de feux de forêt, avec des données provenant initialement de caméras situées dans les parcs nationaux américains et en libre accès.

Sous réserve de nouvelles évolutions permettant de réduire les faux positifs et d'affiner la capacité de détection et de prédiction, d'autres domaines tels que la détection d'inondations, de fortes crues ou encore d'avalanches pourraient être concernés par des techniques similaires.

D. L'IA ET LES ASSURANCES : COMMENT ASSURER LA CATASTROPHE ?

Face à l'intensification et à la multiplication des événements extrêmes, le modèle assurantiel actuel, combinant assurances privées et interventions publiques, est-il suffisamment robuste ?

En renforçant la précision des prévisions, les systèmes d'alerte précoce et la résilience des territoires, les techniques d'IA pourraient contribuer à l'adaptation du système d'assurance.

« Imaginez un jumeau numérique pour une propriété côtière qui surveille en permanence l'élévation du niveau de la mer, les conditions météorologiques et l'intégrité structurelle, ce qui permet d'alerter rapidement en cas de risque d'inondation et d'effectuer les travaux de maintenance préventifs.

Les jumeaux numériques permettent une évaluation et une atténuation proactives des risques. Les assureurs peuvent affiner les modèles de risque, personnaliser la couverture et proposer des primes compétitives sur la base de données en temps réel. »

Michel de La Bellière et Jochen Papenbrock, « IA et IA Générative : l'assurance est-elle à la veille d'une transformation fondamentale dans la couverture et la gestion des risques ? », L'Argus de l'assurance, 2023

https://www.argusdelassurance.com/tech/ia-et-ia-generative-l-assurance-est-elle-a-la-veille-d-une-transformation-fondamentale-dans-la-couverture-et-la-gestion-des-risques-tribune.229751

Le prototype de jumeau numérique pour la gestion des risques d'inondation développé par le CNES et QuantCube va jusqu'à fournir une estimation du risque financier associé aux inondations dans les zones de test sélectionnées. Ces informations pourront être utilisées par les gouvernements et d'autres acteurs intéressés parmi lesquels les assureurs.

III. LA RECHERCHE SUR LES TECHNIQUES D'IA FRUGALE POUR CONCILIER APPORT DE L'IA ET SOBRIÉTÉ NUMÉRIQUE

Dans le cadre de la stratégie nationale pour l'IA, la recherche s'oriente également vers la contribution de l'IA à la sobriété numérique. Il s'agit de développer des modèles avec moins de données ou de paramètres mais autant, voire davantage, performants que les grands modèles disponibles sur le marché.

De fait, certains projets parviennent à combiner apports de l'IA à l'environnement « AI for green » et IA frugale (« green IA »).

« Green AI » et « AI for Green » : deux dimensions complémentaires reliant l'IA et l'environnement

Source : Illustration Deloitte basée sur l'étude de L. Hilty et B.Aebisher

L'« IA verte » concerne les efforts réalisés pour réduire l'empreinte environnementale de l'IA tout au long de la chaîne de valeur (de l'approvisionnement en énergie à l'amélioration des matériels en passant par la transformation des centres de données). Parallèlement, l'« IA pour l'environnement » peut également favoriser une IA plus frugale à travers par exemple l'optimisation des ressources ou sa contribution au développement des énergies renouvelables.

Dans le domaine du changement climatique, l'Inria met ainsi en avant des initiatives visant à réduire l'empreinte environnementale du numérique tout en utilisant l'IA pour mieux comprendre et modéliser les phénomènes environnementaux.

Alors qu'un code numérique « traditionnel » pour la prévision météorologique peut comporter plusieurs centaines de milliers de lignes, les outils proposés par l'équipe « Arches » ne comportent que quelques milliers de lignes et réduisent donc le coût environnemental de la simulation.

Météo-France indique également que le rapport entre la performance et la frugalité des réseaux de neurones convolutifs apparaît très intéressant, les coûts d'inférence et d'apprentissage apparaissant raisonnables (quelques heures pour l'apprentissage et quelques minutes pour l'inférence).

S'agissant de l'IA générative, des systèmes d'IA plus spécifiques que les grands modèles développés et hébergés par les géants du numérique peuvent également être développés et permettre de concilier innovation et réduction de l'impact environnemental.

Combiner apport de l'IA au service de l'environnement et sobriété de l'IA est également le principe directeur que s'est donnée l'action publique au niveau de l'État à travers la promotion de l'IA frugale.

DEUXIÈME PARTIE
UNE ACTION PUBLIQUE QUI SE STRUCTURE POUR FAVORISER L'ÉMERGENCE DE SOLUTIONS D'IA AU SERVICE DE L'ENVIRONNEMENT, MAIS DES ÉVOLUTIONS ENCORE TRÈS EXPLORATOIRES

I. FAIRE ÉMERGER DES SOLUTIONS D'« IA FOR GREEN » : UNE AMBITION DE L'ACTION PUBLIQUE AUX NIVEAUX NATIONAL ET EUROPÉEN

A. UN CADRE EUROPÉEN QUI ENTEND CONCILIER INNOVATION TECHNOLOGIQUE ET PROTECTION DE L'ENVIRONNEMENT

Le règlement européen sur l'intelligence artificielle (AI Act) du 13 juin 202449(*) ne comporte pas de chapitre dédié à l'environnement.

Les enjeux environnementaux de l'IA sont cependant pris en compte à un double titre : dans les dispositions visant à faciliter les investissements et l'innovation, d'une part, dans le cadre des exigences de durabilité environnementale requis pour les systèmes d'IA mis sur le marché, d'autre part.

· Partant du constat que les systèmes d'IA connaissent une évolution rapide qui requiert la mise en place de nouvelles formes de régulations et d'expérimentations, l'AI Act permet d'aborder indirectement les questions environnementales à travers une régulation uniforme comportant des mécanismes de soutien favorables aux investissements et à l'innovation. Il prévoit notamment la mise en place par les États membres de « bacs à sable réglementaires » (« sandboxes »).

L'objectif est de permettre aux développeurs d'IA, y compris dans le secteur environnemental, de tester leur système dans un espace contrôlé mais n'exigeant pas au départ le respect de l'ensemble du cadre réglementaire applicable. La possibilité leur est donnée d'évaluer leur technologie en conditions réelles et avec une garantie de sécurité juridique. Ce dispositif apparaît intéressant pour accélérer la mise sur le marché de technologies vertes, en particulier celles de PME et de jeunes entreprises, par exemple pour les solutions d'économie circulaire ou les systèmes de gestion énergétique basés sur l'IA.

L'obligation faite aux États membres de mettre en place au moins un bac à sable réglementaire opérationnel en matière d'IA entrera en vigueur à compter du 2 août 2026 ; il conviendra d'en évaluer la mise en oeuvre sur le territoire français.

En classant les systèmes d'IA par niveaux de risque, l'AI Act entend contribuer à réduire les incertitudes réglementaires et à créer un cadre juridique propice à l'investissement dans des solutions innovantes. Les dispositifs d'IA à faible risque bénéficient d'exigences réglementaires minimales, ce qui est de nature à faciliter leur diffusion rapide.

Degrés de risque des technologies d'IA pour l'environnement : que dit l'AI Act ?

L'AI Act classe les systèmes d'IA en quatre catégories de risque, avec des exigences croissantes s'agissant de la protection des droits fondamentaux et des données sensibles. Il ne fournit pas une liste exhaustive des technologies concernées, a fortiori dans le domaine de l'environnement, les usages devant être évalués au cas par cas.

 Interdiction en raison d'un risque inacceptable

Certains systèmes d'IA, comme ceux exploitant des données sensibles à des fins de manipulation comportementale ou de surveillance indiscriminée, sont interdits. Le secteur de l'environnement semble peu concerné.

 Haut risque

Les systèmes d'IA dans des domaines sensibles (énergie, gestion des ressources naturelles ou surveillance environnementale à grande échelle) doivent répondre à des exigences strictes en matière de transparence et de sécurité. Cela pourrait par exemple inclure la protection des données sensibles dans le cadre de la collecte d'informations personnelles et géolocalisées sur le comportement énergétique pour optimiser des infrastructures vertes.

 Risque limité

Ces systèmes sont conditionnés à des obligations de transparence, par exemple pour informer les utilisateurs qu'ils interagissent avec une IA. S'agissant de l'environnement, des services comme des chatbots pour sensibiliser aux économies d'énergie, pourraient entrer dans cette catégorie.

 Faible risque

Les systèmes non intrusifs, comme des outils éducatifs ou de sensibilisation à l'environnement utilisant l'IA, sont soumis à des obligations minimales.

· S'agissant des impacts environnementaux de l'IA, la réglementation européenne ne définit pas de normes de durabilité des systèmes d'IA en tant que telles, renvoyant la responsabilité d'une telle définition aux États membres.

Des exigences relatives à la transparence dans l'utilisation des données et des ressources sont néanmoins prévues, ce qui constitue une obligation particulièrement pertinente pour les systèmes à fort impact environnemental, tels que ceux utilisés dans les infrastructures énergétiques et les transports.

B. LA STRATÉGIE FRANÇAISE POUR ENCOURAGER LE RECOURS À L'IA AU SERVICE DE LA TRANSITION ÉCOLOGIQUE

Sans attendre l'adoption d'un corpus de règles à l'échelle européenne et dans le prolongement de la stratégie nationale pour l'IA (SNIA), le Gouvernement a tenté de structurer l'action publique pour une IA au service de l'environnement par l'adoption d'une feuille de route.

Au sein du Commissariat général du développement durable (CGDD), le ministère de la transition écologique s'est doté d'un laboratoire d'innovation - l'Écolab -, chargé d'animer l'écosystème de l'innovation verte et de piloter la stratégie en faveur de l'IA pour l'environnement.

1. La feuille de route « intelligence artificielle et transition écologique » du ministère de la transition écologique

Le Gouvernement s'est doté en 2021 d'une feuille de route sur l'IA et la transition écologique, actualisée en 2023 dans le cadre de la Stratégie d'accélération sur l'IA de France 2030. Elle vise à « généraliser l'usage de l'IA au service de la transition écologique » et à transformer l'action publique pour la rendre plus efficace50(*).

S'inscrivant dans la seconde phase de la stratégie nationale de l'IA (SNIA) lancée en 2020, elle entend permettre aux collectivités publiques qui en expriment le besoin d'aller plus loin dans le pilotage des politiques et services publics par la donnée, en mobilisant des solutions d'IA frugale. Ce faisant, elle vise à faciliter la rencontre entre l'offre et la demande des entreprises, des administrations et des collectivités en solutions innovantes.

Les orientations pour les années 2023-2025 répondent à quatre grands objectifs :

- disposer de données de référence par la création de jeux de données ouverts ou mutualisés, afin de faire progresser les algorithmes d'IA ;

- accélérer la transition des territoires, avec un soutien de 40 millions d'euros de France 2030 dédiés à la création d'une offre de solutions à base d'IA pour la planification écologique dans les territoires (cf. infra), et une attention accrue portée au partage de l'expérience acquise ;

- soutenir les écosystèmes privés innovants en IA, en favorisant la rencontre entre les besoins des collectivités territoriales et les solutions des entreprises innovantes ou de jeunes pousses utilisant l'IA ;

- accompagner l'« IA publique de confiance » en soutenant les acteurs dans leurs efforts de recrutement et de formation et par l'organisation d'échanges de pratiques entre pairs, en particulier au sein du « Club de l'IA » animé par l'Écolab ;

- promouvoir l'évaluation des projets au regard des enjeux éthiques et écologiques de l'IA.

2. Le rôle d'animateur joué par l'Écolab pour dynamiser le recours à l'IA au service de l'environnement

Dans ce contexte, l'Écolab, créé en 2019, a pour mission de promouvoir l'innovation dans le domaine de la transition écologique par l'animation de l'écosystème français de la « greentech ». Il entend favoriser la valorisation et l'usage des données publiques dans ce domaine.

Son action pour faire émerger des cas d'usage concrets de l'IA dans le secteur de l'environnement s'est récemment renforcée avec le lancement en 2023 de l'appel à projets (AAP) « Démonstrateur d'IA dans les territoires » (DIAT).

Il s'agit d'encourager la mise en place d'applications d'IA au service des objectifs de décarbonation et de transition écologique et énergétique des collectivités et des établissements publics territoriaux, en accompagnant notamment les entreprises actives dans ce domaine.

Les « Démonstrateurs d'IA » pour la transition écologique dans les territoires (DIAT)

L'appel à projets « Démonstrateurs d'IA frugale pour la transition écologique dans les territoires » (DIAT), piloté par l'Écolab et mis en oeuvre par la Banque des territoires, permet aux pouvoirs publics de soutenir des projets d'IA ayant un impact direct sur la transition écologique en France.

Lancée en 2023, cette initiative vise des applications d'IA frugale et des technologies répondant aux besoins écologiques et énergétiques spécifiques de chaque territoire.

Parmi les critères d'évaluation des projets figurent le degré d'innovation, l'impact environnemental et la transparence des algorithmes. Pour maximiser leur ancrage local et leur impact sur la transition écologique, les projets doivent être collaboratifs, réunissant lorsque cela est possible des collectivités, des PME innovantes et des établissements publics. Les aides proposées peuvent prendre la forme de subventions ou d'avances remboursables, selon la taille de l'entité et le type de projet concerné.

Les huit lauréats subventionnés dans le cadre de la deuxième vague de démonstrateurs proposent des solutions variées pour optimiser les ressources naturelles (eau, énergie) et réduire l'empreinte carbone dans les processus urbains et industriels.

À titre d'exemple, le projet « Urba(IA) » teste des scénarios d'urbanisme assistés par l'IA en fonction de paramètres écologiques.

Projet

Porteur et partenaires

Objectifs

Description

IA Eco Pilot

Advizeo (avec Gridfit et la métropole du Grand Paris)

Réduction des consommations énergétiques

Utilisation de l'IA pour automatiser le suivi et pilotage des bâtiments à distance, intégrant une offre de flexibilité énergétique

Urba IA

Communauté d'agglomération Paris-Saclay (avec BuildRZ, Centrale Supelec, Dassault Systèmes, Institut Paris région, NamR)

Urbanisme durable

Application de l'IA pour prendre en compte les enjeux écologiques dans les PLU et suivre les objectifs environnementaux du schéma directeur francilien

Predict Al'r

Établissement public territorial Paris Ouest La Défense (avec Ifpen, Citepa, Orange, AIR&D)

Impact de la mobilité sur l'air et le climat

Développement d'un observatoire prédictif des impacts de la mobilité via l'IA pour analyser les données de bornage téléphonique et quantifier l'empreinte climatique quotidienne

Mission 90+

Leakmited (avec le syndicat de gestion des eaux du brivadois)

Gestion durable des ressources hydriques

Amélioration de la détection de fuites dans le réseau d'eau potable par prélèvements sonores, en visant une maintenance prédictive

Previzo

Région Centre-Val de Loire (avec Antea France, BRGM, LabIA, laboratoire Prisme, SMO Val de Loire numérique, Nouvel espace du Cher, Tours métropole)

Gestion de la ressource en eau

Prédiction et suivi des épisodes de tension hydrique pour un meilleur suivi des impacts environnementaux

PEP-BIOccIA

Région Occitanie (avec OpenIG, CNRS, TerrOïko)

Préservation de la biodiversité

Cartographie et prédiction des habitats de la faune et de la flore pour une planification de la biodiversité régionale en libre accès

IA.rbre

Telescoop (avec la métropole de Lyon, UMR Liris - université Lumière Lyon 2, CNRS, université Claude Bernard Lyon-I, Insa Lyon, École Centrale de Lyon)

Végétalisation des territoires

Création d'outils d'analyse et de visualisation pour localiser des zones plantables et adapter les territoires au changement climatique dans un objectif de végétalisation, désimperméabilisation des sols et rafraichissement urbain

Amelia

Waltr (avec BruitParif, Ifpen, université Gustave Eiffel, établissement public territorial Paris Est Marne et Bois)

Réduction de la pollution de l'air et du bruit

Développement d'outils peu coûteux pour cartographier les mobilités et réduire la pollution de l'air et sonore en lien avec la mobilité

Le déploiement de ces solutions en conditions réelles permet de confirmer l'apport novateur des innovations développées, d'évaluer les conditions de passage à l'échelle et d'identifier les éventuelles difficultés qui peuvent apparaître dans leur mise en place, la phase délicate étant celle de l'industrialisation.

II. LE RECOURS AUX TECHNIQUES AVANCÉES D'IA PAR LES OPÉRATEURS PUBLICS DANS LE DOMAINE DE L'ENVIRONNEMENT : UNE ÉVOLUTION ENCORE EXPLORATOIRE

Comme le montrent les nombreux cas d'usage déjà avérés et les réflexions prospectives qui se poursuivent au sein des opérateurs publics, le potentiel de l'IA sous ses différentes formes (machine learning, deep learning mais aussi IA générative) a bien été identifié.

De nombreux projets sont néanmoins encore en phase de recherche-développement, de nouvelles solutions étant également recherchées dans le cadre d'un modèle d'innovation ouvert aux participants extérieurs.

A. UN INTÉRÊT STRATÉGIQUE BIEN IDENTIFIÉ AU SEIN DES OPÉRATEURS PUBLICS

L'intérêt stratégique de l'IA comme technologie de rupture pouvant contribuer à accélérer la transition écologique est pris en compte dans les orientations stratégiques des agences, qu'il s'agisse de leurs programmes scientifiques ou des plans d'adaptation des compétences.

1. Une prise en compte dans les orientations stratégiques et la réflexion prospective

Les auditions menées par les rapporteurs confirment l'utilisation croissante de l'IA par les opérateurs pour traiter des données volumineuses ou issues de sources multiples, produire des modèles prédictifs dans des domaines bien définis lorsque les jeux de données d'apprentissage pertinents sont disponibles, automatiser certaines tâches, améliorer l'ergonomie de certains systèmes ou encore assister les scientifiques dans leur activité textuelle grâce aux grands modèles de langage (LLM) pour la synthèse, la traduction ou l'aide à la rédaction.

Ces divers avantages sont pris en compte dans leurs orientations scientifiques, par exemple au BRGM avec le programme scientifique transverse « Numérique pour les géosciences » ou avec le programme « Numérique et environnement » à l'Inria.

Cette évolution s'accompagne d'une réflexion sur la meilleure manière de prendre en compte les enjeux éthiques, en particulier lorsque l'utilisation de l'IA intervient dans un objectif de prévention et de gestion des risques.

L'utilité d'une charte nationale d'éthique et de déontologie sur les usages scientifiques de l'IA ou d'un aménagement des chartes de déontologie et d'intégrité scientifique en vigueur est mis en avant par certains établissements. S'agissant tout particulièrement de la cartographie et la gestion des risques naturels, une vigilance accrue est demandée quant à la certification et la traçabilité des données de modélisation.

La prise en compte de ces enjeux éthiques peut également guider le choix des infrastructures informatiques, non seulement pour limiter l'impact environnemental et accroître les performances par des mutualisations, mais aussi pour assurer la confidentialité et la souveraineté des données. Le BRGM souligne par exemple que le recours à des « cloud » est adapté à l'IA dès lors que ce type de solution est souple et sécurisé.

Cependant, lorsqu'il s'agit de données plus sensibles, comme celles concernées par le nouvel inventaire des ressources minérales51(*), le choix du cloud doit se porter sur une solution permettant un hébergement souverain.

La réflexion porte enfin sur les adaptations rendues nécessaires par l'obligation de se conformer à la réglementation européenne, les missions de service public des opérateurs pouvant les placer à terme dans la catégorie des IA à risque limité, ce qui entraînerait la nécessité de prévoir des dispositifs ad hoc.

S'agissant des services ou bases de données comportant des données sensibles, le recours à l'IA, s'il s'avérait pertinent, pourrait faire évoluer ces systèmes vers la catégorie d'IA à haut risque. Ce n'est pas le cas actuellement au BRGM pour les données contenues par exemple dans les bases des sites et sols pollués ou pour l'évaluation des risques naturels, lesquels ne font pas intervenir l'IA. À terme, la situation pourrait néanmoins évoluer, ce qui obligerait l'opérateur à s'adapter.

2. Le souhait de se doter des meilleures compétences en IA

Les développements rapides de l'IA dans la période récente ont mis en lumière la nécessité pour les opérateurs d'accueillir au sein de leurs équipes des spécialistes de la science des données capables de travailler en synergie avec les acteurs de l'environnement.

Grâce à l'attractivité de leurs missions, à la qualité scientifique de leurs projets et à l'adaptation de l'accompagnement en termes de formation, certains établissements sont parvenus à se doter des compétences recherchées.

C'est le cas de l'IGN. Partant du constat que recourir à l'IA constitue un investissement et que les évolutions dans ce domaine nécessiteront un nombre plus élevé d'ingénieurs formés aux dernières techniques de la donnée, l'IGN a mis en oeuvre un plan de recrutement de 150 talents parmi lesquels 30 « data scientists » intervenant spécifiquement sur les sujets d'IA. En l'espace d'environ deux ans, les équipes de l'IGN sont passées de 8 à 30 ingénieurs spécialisés.

À Météo-France, un « LabIA » constitué de quatre personnes a été mis en place en 2020. Centre de ressource pour l'ensemble des directions de l'établissement ayant besoin d'une expertise en IA pour conduire un projet et mener un travail prospectif, cette équipe a également pour rôle de développer des techniques d'IA dans le cadre d'une production interne.

Dans ce contexte, les activités de recherche de Météo-France incluent une part croissante de projets d'exploration de techniques d'IA. Le développement d'une capacité de recherche a néanmoins nécessité de réallouer certaines ressources humaines à cette mission et de trouver des ressources complémentaires dans le cadre de projets de recherche partenariaux. L'établissement indique ainsi avoir mobilisé environ 7 ETP de son plafond d'emploi depuis 2023 pour répondre à cet enjeu. Il estime cependant que pour être à la pointe dans ce domaine et engager tous les travaux nécessaires, cet effectif et les collaborations engagées avec d'autres structures s'avèrent insuffisants.

Dans un contexte budgétaire contraint, la difficulté pour les acteurs publics de l'environnement à renforcer leurs compétences dans le domaine de l'IA en raison des niveaux insuffisants des rémunérations proposées, en particulier lorsqu'il s'agit de profils « senior » (avec une expérience professionnelle supérieure à cinq ans), représente un frein au développement de leur capacité d'innovation.

Face à une rupture technologique d'une telle ampleur, il s'agit pourtant d'une condition essentielle à remplir pour rester dans la course mondiale.

B. DE NOMBREUX PROJETS EN PHASE DE RECHERCHE-DÉVELOPPEMENT

Cette évolution apparaît d'autant plus indispensable que les nombreuses réflexions et expérimentations qui foisonnent dans ce domaine ont besoin d'être ancrées dans le temps et dans l'espace.

1. Un foisonnement des réflexions et des expérimentations

Dans tous les champs de la transition écologique, la recherche sur les apports de l'IA est encore largement dans une phase d'exploration, le recours aux techniques avancées d'IA n'en étant qu'à ses débuts au sein des opérateurs publics.

À l'Inria par exemple, plus de la moitié des 230 équipes-projets réparties dans les 10 centres de recherche mènent des travaux en lien avec la préservation de l'environnement dans lesquels l'IA occupe une place de plus en plus importante.

Le BRGM indique quant à lui qu'il mobilise de plus en plus l'IA dans son activité scientifique dans différents champs mais que l'essentiel de ses activités en est encore au stade de la recherche-développement, avec peu de mise en place opérationnelle dans le cadre de ses activités de service public.

S'agissant de la gestion et la prévention des inondations, le Cerema indique explorer plusieurs pistes pour mobiliser l'IA dans :

- l'amélioration de la cartographie des zones inondables en utilisant des méthodes de machine learning pour exploiter les données historiques et les témoignages de crues ;

- le développement des outils de prévision des crues soudaines en utilisant des chaînes de prévision basées sur des modèles hydrologiques ;

- le développement des outils d'aide à la décision basés sur des modèles hydrologiques ou hydrauliques pour la prévision des risques en temps réel ;

- le traitement et l'analyse des images satellitaires afin de détecter les zones inondées et les dommages causés aux infrastructures et aux bâtiments ;

- le développement des applications mobiles pour faciliter le travail d'observation et de relevés de terrain post-inondations ;

- ou encore le développement d'outils pour préparer et effectuer les retours d'expérience.

De son côté, Météo-France explore de nouvelles utilisations des réseaux de neurones profonds, en particulier pour la détection de fronts sur les prévisions numériques du temps, la prévision à courte échéance de précipitations et, plus largement, pour enrichir les précisions d'ensemble et favoriser la mise en place d'émulateurs de modèles de prévision.

Dans le cadre de l'émulation de modèles climatiques régionaux, des améliorations sont également recherchées dans le calcul de l'évolution des variables dites de surface, c'est-à-dire non seulement la température et les précipitations mais aussi l'humidité relative, le vent et les composantes du rayonnement à la surface. L'établissement souhaite affiner les techniques utilisées pour pouvoir déployer les méthodes à l'échelle du kilomètre. Il souligne que la mise en oeuvre de ce projet nécessitera des données d'observation de haute qualité et des simulations de modèles climatiques à haute résolution.

L'ensemble de ces évolutions permet d'envisager au cours des prochaines années de nouvelles avancées très prometteuses dans le recours à l'IA dans les sciences de l'environnement.

2. Une appropriation plus récente et limitée de l'IA générative

Le potentiel de l'IA générative est également bien identifié, en particulier pour renforcer la capacité d'extraction d'informations pertinentes dans des corpus documentaires volumineux ou pour l'analyse de documents soumis à une évaluation environnementale.

Le CGDD utilise déjà le traitement automatique du langage pour aider les agents de l'Autorité de l'environnement à traiter les dossiers qui sont soumis à une évaluation environnementale (LIRIAe).

Son appropriation plus large et pour des usages plus avancés, en particulier au sein des opérateurs publics, est cependant récente et toujours en cours.

Le projet LIRIAe pour la pré-instruction de projets environnementaux

« Le projet LIRIAe (Liseuse et Recherche Intelligente pour les autorités environnementales), opéré par l'Écolab en lien avec l'Inria, est un premier pas vers l'utilisation d'outils d'aide au traitement de dossiers. Il s'agit d'une solution mise à disposition d'agents des autorités environnementales au niveau régional et national pour détecter la structure des dossiers, étiqueter automatiquement les thèmes d'intérêt dans les documents et faire des recherches avancées sur les dossiers soumis à évaluation environnementale.

L'objectif est de faciliter l'instruction des projets en temps contraint avec des ressources humaines limitées. Les prochains développements permettront d'améliorer la pertinence de la recherche et des étiquettes, de faciliter la formulation en langue naturelle des requêtes et de faire des suggestions pour aider à la rédaction d'avis. »

Source : Feuille de route IA et transition écologique, 2023-2025, p. 19

Au sein des opérateurs du réseau scientifique et technique, le BRGM envisage de mobiliser l'IA générative pour mieux exploiter les connaissances accumulées sous la forme de rapports. Il fait appel à deux familles d'algorithmes : ceux à base de grands modèles de langage (LLM) et les algorithmes antagonistes génératifs (GAN)52(*) :

- les algorithmes de type LLM et RAG53(*) sont mobilisés pour l'exploitation des données textuelles, dont certaines parfois anciennes comme les rapports de forage de la banque des données du sous-sol. Des projets sont également en cours pour extraire des données textuelles à partir des fiches de synthèse de forages pétroliers ou de rapports de forage de géothermie ;

- l'apport des algorithmes GAN est quant à lui étudié pour la génération de données synthétiques remédiant au caratère lacunaire des données du sous-sol, par exemple pour l'automatisation de la géomodélisation.

Météo-France étudie également depuis quelques mois la possibilité d'utiliser des grands modèles de langage. Dans ce domaine, la réflexion porte sur l'usage de l'IA pour la création de textes. De premiers développements portent sur la rédaction des Bulletins marine réguliers (BMR) et la proposition d'un chatbot sur le portail DRIAS (projections climatiques du futur pour l'adaptation des sociétés).

L'Ifremer indique quant à lui commencer à utiliser l'IA générative pour des activités générales comme la recherche documentaire et la réalisation de synthèses. Cependant, le cadre d'usage n'a pour l'instant pas été défini.

C. UNE LOGIQUE D'INNOVATION OUVERTE : LE PARI DE LA COMPÉTITION SOUS LA FORME DE « CHALLENGES » OU DE « HACKATHONS »

Parallèlement à ces travaux de recherche interne, l'animation de l'écosystème de recherche repose de façon plus marginale sur l'organisation de compétitions scientifiques pour l'élaboration de modèles plus performants, mais frugaux.

L'environnement constitue un terrain privilégié, les jeux de données ouverts servant à stimuler la recherche et les projets partenariaux. C'est le cas par exemple des évènements organisés par l'Ademe, tel que le « challenge Dis-Ademe ».

Les « challenges » ou « hackathons » : un modèle d'innovation ouvert pour trouver de nouveaux cas d'usage de l'IA pour l'environnement

En ligne avec la feuille de route IA du pôle ministériel « Écologie Énergie Territoires », l'Ademe a organisé en 2023-2024 un « challenge Dis-Ademe »54(*) visant à faire émerger des solutions d'IA pour faciliter l'accès aux aides financières et services de l'agence et des autres opérateurs publics.

Le constat ayant motivé cette initiative d'innovation ouverte est le manque de fluidité du parcours de l'utilisateur sur le site Internet de l'Ademe, qui doit pouvoir s'adapter à l'hétérogénéité des demandes et des profils, et la difficulté à apporter des réponses circonstanciées quant à la spécificité des aides proposées et les conditions d'éligibilité. « Comment pouvons-nous faciliter, en expérimentant l'IA, l'accès et la compréhension des aides et des services pour la transition écologique des professionnels ? », telle était la question posée.

Les participants devaient produire des prototypes fonctionnels démontrant l'intérêt de l'IA au service de la transition écologique des professionnels (entreprises, collectivités, associations, organismes de recherche...) et pour des cas d'usage précis. Ils se sont appuyés sur des données structurées et non structurées relatives aux aides et services (métadonnées des appels à projets, cahiers des charges, conditions d'éligibilité, annexes techniques...).

Parmi les quatre lauréats sélectionnés en décembre 2024, les deux premiers ont vu leur prototype rendu public.

L'Ademe souligne que cette innovation démontre l'utilité de l'apport de compétences extérieures qui pourrait également intéresser d'autres acteurs publics.

Objectif

Dispositif proposé

Perspectives

Aider les professionnels à identifier la bonne aide et à évaluer leur éligibilité

Équipe : Ilex-IA, (collaboration entre Ilex Environnement, WeUseAI et Daikon)

Le dispositif combine trois agents d'IA : un agent conversationnel (chatbot), un agent de récapitulation qui transforme la conversation en mots-clés, et un agent d'extraction pour sélectionner les critères d'éligibilité.

Une interface ergonomique a été créée. Elle comporte des fonctionnalités innovantes telles que l'actualisation en temps réel de la liste des dispositifs pertinents pendant la conversation.

Pour valider le dispositif sur le terrain, des tests ont été réalisés auprès de 13 entreprises et associations dans le cadre d'une approche centrée sur l'utilisateur.

Parmi les pistes d'amélioration, l'équipe vise une réduction de 80 % des émissions carbone en passant à des modèles plus légers et en optimisant leur architecture.

Le décalage entre la terminologie usitée dans la description des aides et le langage succinct des utilisateurs fait également partie des points d'attention pour le futur.

Évaluer la pertinence d'une aide et son éligibilité

Équipe : Dpliance

Dans le cadre d'une approche intégrée avec les outils existants, la solution proposée utilise l'API SIRENE afin de permettre aux porteurs de projet de préremplir automatiquement leurs informations d'ordre administratif.

Un agent conversationnel les guide ensuite dans la vérification de leur éligibilité.

La solution est censée être adaptable à n'importe quel appel à projet.

Ce type de démarche exploratoire apparaît intéressante sous réserve qu'elle soit suffisamment structurée et que les résultats prometteurs puissent rapidement déboucher sur des évolutions concrètes.

TROISIÈME PARTIE
LES CONDITIONS DE RÉUSSITE DE L'IAAU SERVICE DE L'ENVIRONNEMENT : RENFORCER L'« EXPLOITABILITÉ » DES DONNÉES ET LA GOUVERNANCE, FAVORISER LA RECHERCHE ET TROUVER LE BON MODÈLE ÉCONOMIQUE

I. FAVORISER LA DISPONIBILITÉ ET LA QUALITÉ DE LA DONNÉE POUR L'IA

L'accès à des données de qualité constitue une condition sine qua non de la performance des systèmes d'IA, notamment au service de la transition écologique. Le rapport « Villani » de 2018 appelait ainsi de ses voeux une politique de la donnée offensive pour en développer l'accès, la circulation et le partage.

Si des progrès notables ont été réalisés en ce sens au cours des dernières années, il en reste encore à accomplir pour favoriser l'accès à des données exploitables.

A. L'OPEN DATA EN MATIÈRE ENVIRONNEMENTALE : UNE MINE DE RESSOURCES POUR DE NOMBREUX ACTEURS

1. Un écosystème de la donnée qui fait intervenir de nombreux acteurs publics et privés

De nombreux acteurs publics et privés interviennent à divers titres dans la production et la réutilisation de données environnementales, le potentiel d'usage de ces données étant considérable : opérateurs et services de l'État dans toute leur diversité, collectivités territoriales, acteurs publics et privés intervenant dans les territoires ou encore organismes publics et privés de recherche et acteurs de la société civile.

Portées par le développement du numérique, les données environnementales ont ainsi connu une dissémination exponentielle et constituent aujourd'hui un ensemble très riche, qu'il s'agisse de données environnementales par nature (géographiques par exemple) ou par destination, comme celles qui concernent les transports et la mobilité par exemple.

Au-delà des données produites directement par les opérateurs et les services ministériels ou déconcentrés ainsi que les communautés scientifiques, la société civile est de plus en plus impliquée dans la production de données à travers par exemple les sciences participatives et le crowdsourcing.

Un véritable écosystème de la donnée a ainsi progressivement vu le jour, dont l'intérêt général justifie qu'il participe pleinement à la politique d'ouverture des données en matière environnementale.

L'écosystème des producteurs et utilisateurs de données environnementales

2. L'environnement : un domaine tôt concerné par la politique d'ouverture des données

La politique d'ouverture des données (open data) a relativement vite concerné l'environnement, d'abord pour répondre à des enjeux de transparence en matière de santé, puis pour promouvoir, plus largement, l'innovation dans l'utilisation de ces données.

Des données ouvertes de plus en plus massives

L'open data fait référence aux données numériques produites par les acteurs publics et privés, diffusées de manière structurée et librement accessibles ou réutilisables, y compris à des fins commerciales, dans le cadre d'une licence excluant toute restriction technique, juridique ou financière55(*).

Ces données ouvertes constituent une mine de ressources pour de nombreux acteurs (administrations, collectivités territoriales, société civile, citoyens, entreprises privées) et pour des usages et des impacts potentiels très divers.

 Un cadre juridique fondé sur le principe de la gratuité d'accès aux données publiques et leur libre réutilisation

Dotée d'une politique d'ouverture des données publiques ambitieuse, la France figure parmi les pays les plus avancés en matière d'open data au plan international56(*). L'ouverture de ces données repose sur un cadre juridique bien établi en vertu duquel, depuis la loi pour une République numérique de 2016, l'ouverture constitue la règle par défaut57(*).

Ce principe se traduit par une approche unique au plan européen, consistant en un « portail national des données publiques »58(*), c'est-à-dire une plateforme communautaire où chacun peut publier des données, les réutiliser ou encore lancer des discussions.

 La place croissante des données environnementales, en particulier climatiques

Si le secteur de l'environnement a été tôt concerné par les obligations d'ouverture imposées aux administrations publiques59(*) - dès les années 1990 et 2000 -, les jeux de données disponibles en open data continuent de croître régulièrement.

À l'été 2024, la catégorie « Environnement » du portail national des données publiques englobait ainsi 19 369 jeux de données comptabilisant au total 43,7 millions de vues et plus de 105,6 millions de téléchargements. Plus de 1 030 jeux de données avaient été publiés concernant ce domaine au cours de l'année 2023.

Parmi les évolutions récentes et significatives, le lancement le 1er janvier 2024 de la plateforme thématique « meteo.data.gouv.fr » a par exemple permis de créer un socle pour référencer, héberger et diffuser les données publiques météorologiques produites par Météo-France.

Dans un premier temps, ont été mis à disposition deux premiers jeux de données climatologiques mobilisables pour la réalisation d'études et de diagnostics sur le changement climatique.

Dans un second temps, la plateforme a été enrichie de nouvelles données parmi lesquelles celles issues des modèles de prévision numérique du temps « ARPEGE » et « AROME ». De nouvelles fonctionnalités facilitant le tri et l'accès aux données hébergées sont proposées pour simplifier l'utilisation de ces données.

La mise en place de cette plateforme permet de faire avancer la démarche d'ouverture de données d'intérêt général tout en initiant la création de « communs numériques ».

Cet écosystème foisonnant contribue à la massification des données, mais pose d'évidents enjeux de gouvernance dans la connaissance et l'exploitation des données rendues accessibles.

B. DES DONNÉES EXPLOITABLES TOUTEFOIS ENCORE INSUFFISANTES

1. Favoriser l'usage des données en améliorant leur « découvrabilité »

En dépit de leur ouverture, certaines données environnementales sont parfois peu utilisées en raison de leur caractère difficilement exploitable ou parce qu'elles ne suscitent pas l'intérêt escompté. La multiplicité des sources peut en outre rendre difficilement identifiables les données de référence, et par conséquent entraver leur « découvrabilité » selon l'expression de l'Écolab.

La qualité des métadonnées, qui permettent d'organiser les données et d'en faciliter l'utilisation, est également pointée, leur fréquence de mise à jour et leur granularité (le niveau de détail fourni) n'étant pas toujours adaptées aux usages.

Les améliorations à apporter à l'open data en matière environnementale

Parmi les pistes d'amélioration, la recherche d'une meilleure animation de la communauté open data, en France comme entre États membres européens, fait partie des axes identifiés, tout comme l'amélioration de la qualité des métadonnées ou encore de la couverture du catalogue du portail national.

 Avancer sur le référencement des données environnementales

Si le foisonnement des données permet un maillage thématique et territorial bienvenu, un meilleur référencement de cet ensemble hétérogène apparaît nécessaire pour garantir sa lisibilité.

Dans la sphère étatique, un travail de centralisation des données produites par les services de l'État (DDT, DREAL,...) et les opérateurs est mené avec l'objectif de recenser et classer l'ensemble de celles relatives à la transition écologique et énergétique. Porté par l'équipe en charge de data.gouv.fr en collaboration avec le Commissariat général au développement durable (CGDD) et l'Écolab, le projet « Écosphères » vise à faciliter la recherche, la découverte et l'exploitation des données environnementales.

Dans une logique de développement de communs numériques, le portail et catalogue ecologie.data.gouv.fr propose une base technique réutilisable pour la création de portails thématiques de données. Plusieurs portails, dont celui relatif aux données de Météo-France, pourront ainsi s'appuyer sur le même code open source.

 Passer d'une logique d'offre à une logique d'usage

Avec cette structuration de l'espace de la donnée, l'Écolab entend favoriser l'appropriation des données à des fins de transition écologique afin qu'elle devienne plus massive et systématique.

Dans ce contexte, les opérateurs de l'État sont invités à renforcer la qualité des données rendues disponibles, avec des exigences inscrites dans leur plan de charge. À titre d'exemple, le Cerema s'était donné comme objectif, dans le cadre de son contrat d'objectifs et de performance, de structurer d'ici fin 2024 des jeux de données de référence dans l'ensemble de ses domaines d'activité. Il apparaît indispensable d'encourager l'ensemble des acteurs concernés à approfondir les efforts réalisés en la matière.

Axe n° 1 :  poursuivre les efforts visant à structurer les jeux de données en matière environnementale et améliorer leur référencement

Au terme de ce travail approfondi d'agrégation et d'interopérabilité, cette masse de données se verra dotée d'une « dimension d'infrastructure immatérielle comparable aux infrastructures physiques comme les réseaux de télécommunications »60(*).

2. Une connaissance encore lacunaire de certains éléments de notre environnement

Malgré la richesse et les efforts de structuration des données disponibles, certaines « briques » de notre environnement font encore l'objet d'une connaissance lacunaire, soit en raison de l'imperfection du système de recueil des informations, soit parce que la connaissance de ces éléments reste dans les mains d'acteurs privés.

a) Les données du sous-sol : un point faible du champ de vision

Une connaissance approfondie et fiable du sous-sol est nécessaire à une meilleure utilisation des ressources (eau, énergie, minéraux, métaux), à l'adaptation aux conséquences du changement climatique et à la gestion des risques naturels dans l'aménagement du territoire. Or le BRGM insiste sur l'incertitude dont est affectée la connaissance de cet élément essentiel de l'environnement et les données que l'on y acquiert.

Pour l'opérateur, il importe d'arriver à comprendre les incertitudes existantes et d'en tenir compte dans la chaîne de transformation de la donnée, en particulier lorsque cette chaîne comporte des traitements reposant sur des techniques d'IA.

La banque du sous-sol : des informations encore parcellaires et éparses

L'ensemble des données relatives aux ouvrages souterrains (forages, sondages, puits et sources) sont collectées et conservées dans la « banque du sous-sol » (BSS) gérée par le BRGM.

Bien que cette base de données fournisse des informations sur plus de 700 000 ouvrages et travaux souterrains réalisés depuis plus d'un siècle, les données relatives au sous-sol restent fragmentaires, contrairement à la connaissance de la géologie de surface qui fait l'objet de nombreuses cartes géologiques.

Or en pratique, les renseignements sur le sous-sol ne manquent pas et ils constituent un capital important pour l'environnement et la connaissance géologique. Ces données sont mises à jour à l'occasion de découvertes et d'exploitations de ressources naturelles enfouies (eau, pétrole, ressources minières), d'opérations de géotechnique (travaux d'infrastructure et d'aménagement), d'études de géothermie et de recherches scientifiques sur les phénomènes géologiques.

Afin de tirer parti des possibilités offertes par l'IA, l'enjeu est de pouvoir accéder à ces données, en quantité et en qualité suffisantes, pour le bon fonctionnement des méthodes d'apprentissage.

Pour répondre à ces difficultés, le BRGM participe, dans le cadre d'une approche collective, au Consortium industrie et recherche pour l'optimisation et la quantification d'incertitude pour les données onéreuses (CIROQUO)61(*).

L'établissement insiste sur les conditions concrètes qui doivent être réunies pour lui permettre de progresser dans la mise à disposition de données sur le sous-sol, parmi lesquelles :

- l'utilisation d'un système d'information scientifique d'établissement adapté ;

- l'emploi de données FAIR utilisant les standards internationaux62(*) ;

l'accès aux données produites par d'autres acteurs académiques, collectivités territoriales et entreprises privées au travers d'e-infrastructures et de portail d'accès aux données ;

- et la possibilité de se référer à un cadre juridique clair pour l'accès et l'utilisation de ces données.

b) Les données d'intérêt général détenues par les acteurs privés

Si les données publiques sont régies par un principe d'ouverture par défaut, ce n'est généralement pas le cas des données privées. Celles-ci ne sont ouvertes que ponctuellement, le plus souvent dans le cadre d'approches sectorielles et au titre des « données d'intérêt général » comme le prévoit la loi pour une République numérique63(*).

La notion de « données d'intérêt général » : une approche très globale

Introduit par la loi pour une République numérique de 2016, le terme de « données d'intérêt général » s'entend de « données qui sont de nature privée mais dont la publication peut se justifier en raison de leur intérêt pour améliorer les politiques publiques ».

Cette définition peut faire référence aux données collectées ou produites dans le cadre d'une concession de service public et qui présentent un intérêt économique, social, sanitaire ou environnemental, mais elle ne vise pas les données environnementales dans leur ensemble.

Or certains acteurs privés possèdent des informations qui peuvent s'avérer précieuses pour faire avancer la connaissance de l'environnement, pour prévenir une situation de crise ou dans certains cas d'urgence.

Il peut s'agir de données personnelles, portant par exemple sur la consommation d'eau, d'énergie ou encore la production de déchets ménagers, ces données étant parfois produites par des objets connectés (capteurs, smartphones). Il peut également s'agir de données environnementales non publiques mais financées par des acteurs publics telles que les informations recueillies par les opérateurs de services urbains ou par les agences d'aménagement et d'urbanisme.

Cela peut enfin concerner des données privées qui peuvent se révéler d'intérêt général dans certaines situations, en particulier celles disponibles sur les réseaux sociaux en situation de crise.

Dans le cadre du projet « RéSoCIO », le BRGM a étudié la possibilité de traiter de manière automatique les éléments de langage et les données spatiales lors de crises liées à des risques naturels. Le dispositif mis au point permet de localiser et d'évaluer les impacts, en quelques secondes, à partir de messages laissés sur des réseaux sociaux.

La réussite de ce type de projet suppose une pleine coopération des réseaux sociaux concernés. Dans le cas de RéSoCIO, l'évolution des conditions d'accès aux données a malheureusement écarté les perspectives d'application opérationnelle.

Le projet « RéSoCIO » : utiliser l'IA en cas de catastrophe naturelle pour faciliter le traitement d'informations de terrain issues des réseaux sociaux

Mené par une équipe interdisciplinaire constituée du BRGM, de l'IMT Mines Albi, de l'Université Paris-Dauphine et de la société Predict-Services, le projet « RéSoCIO » (réseaux sociaux en situation de catastrophe naturelle, interprétation opérationnelle) a démarré en 2021 pour quatre ans et avec le soutien de l'Agence nationale de la recherche (ANR)64(*).

Il concernait la gestion des catastrophes dites « à cinétique très rapide » comme les crues éclair, les boues torrentielles ou encore les séismes. L'objectif était d'exploiter grâce à l'IA les informations de terrain publiées sur les réseaux sociaux par les sinistrés et les témoins directs afin de permettre aux acteurs de la gestion de crise (préfectures, mairies, services de secours...) d'améliorer leur connaissance de la situation (origine, intensité, ampleur des pertes, évolutions possibles) et la prise de décision.

 La géolocalisation à partir de tweets

Un usage intensif des réseaux sociaux est souvent observé après la survenue de catastrophes naturelles, comme par exemple lors du séisme de Cholet en 2019. Dans ces situations, l'IA se présente comme un atout majeur pour identifier les messages utiles parmi les millions de « posts » envoyés chaque minute, et les analyser pratiquement en temps réel.

Le BRGM a élaboré un algorithme qui regroupe les tweets selon leur proximité à la fois spatiale et temporelle. S'agissant du séisme survenu à Cholet en 2019, les contours des tweets ainsi regroupés délimitent avec une relative précision la zone de perception du séisme qui couvre une grande partie de l'Ouest de la France.

Affichage « brut » de la densité de tweets captés à la suite au séisme de Cholet du 21 juin 2019 (à gauche) et regroupement automatique comparé à la zone de perception du séisme (à droite)

Source : BRGM

 Une IA entraînée sur les données de Twitter

L'utilisation du réseau social Twitter (devenu X) a été privilégiée en raison du nombre important de ses utilisateurs actifs et du caractère concis des messages, mais aussi parce que ce réseau proposait une interface de programmation d'application (API) gratuite, permettant d'automatiser des collectes sur ses données.

Cette API a été utilisée par le BRGM pour développer une plateforme dédiée à l'analyse de tweets en cas de catastrophes naturelles65(*). Chaque message textuel faisait ainsi l'objet d'un triple enrichissement visant à :

- évaluer sa pertinence pour les acteurs de la gestion de crise ;

- repérer et géolocaliser les informations de lieux mentionnées pour les représenter sur une carte ;

- classer l'information par catégories d'intérêt, par exemple pour filtrer les messages signalant des dommages, ceux issus de témoins directs, etc.

Dans le cadre d'un apprentissage supervisé, l'entraînement a d'abord été réalisé sur des données dites « froides » (tweets sélectionnés attentivement au cours de crises passées et annotés). En ajustant les modèles prédictifs ainsi constitués, l'équipe les a ensuite utilisés pour l'analyse de données « chaudes », c'est-à-dire des tweets captés en temps réel.

 Des données de moins en moins accessibles, entravant la conduite efficace du projet et, plus généralement, celle de la recherche appliquée

Jusqu'à début 2023, Twitter permettait à chacun d'utiliser une partie de ses données gratuitement, comme par exemple à travers des applications tierces comme TweetDeck. Depuis son rachat par Elon Musk et l'évolution de son modèle économique, le réseau social, devenu X, a supprimé son API gratuite pour la remplacer par des solutions onéreuses et désormais rédhibitoires pour les recherches académiques.

Cette évolution a soudainement rendu inutilisables les modèles d'analyse de tweets développés par l'équipe de recherche tout en démobilisant les acteurs associés (sapeurs-pompiers, services municipaux, volontaires) en éloignant la perspective d'une application concrète des travaux.

Parallèlement, l'irruption des grands modèles de langage (LLM), capables de construire des modèles prédictifs efficients à partir de quantités limitées de données étiquetées, a remis en cause la méthode de travail initialement retenue.

L'ensemble de ces éléments a mis un coup d'arrêt au projet dont il avait été envisagé l'extension à d'autres risques naturels tels que les tempêtes et les cyclones.

Dans ces conditions, une réflexion est à mener sur l'accès des chercheurs et des développeurs d'outils présentant un intérêt général aux données des réseaux sociaux. Si une voix forte et concordante doit se faire entendre auprès des grandes plateformes, l'approche doit être équilibrée pour éviter les éventuelles entraves à la concurrence ou les atteintes aux intérêts de la population.

L'exemple du projet « RéSoCIO » pose avec une grande acuité la question de savoir comment inciter les acteurs privés à partager leurs données d'intérêt général. Cette problématique n'est pas nouvelle. Le rapport « Villani » appelait déjà de ses voeux l'ouverture des données détenues par les acteurs privés dans le domaine de l'environnement à des fins de recherche ou d'intérêt général.

Selon Laurent Cytermann en 2018, « les données d'intérêt général peuvent être définies comme les données dont l'ouverture est justifiée par un motif d'intérêt général, soit en raison du lien entre la personne qui les contrôle et une personne publique, soit en raison de la nature des données elles-mêmes »66(*).

Dans un avis de juillet 2020, le Conseil national du numérique envisage une ouverture plus large de ces données en y incluant celles produites par les acteurs privés sans rattachement avec la puissance publique67(*).

Sans porter atteinte à la protection des données personnelles et à la propriété intellectuelle, la réflexion sur les conditions dans lesquelles la notion d'intérêt général pourrait être utilisée pour pousser les acteurs privés à les partager dans des conditions précises, en particulier en cas d'urgence pendant une crise, doit ainsi se poursuivre. Des modèles et des clauses types pourraient être prévus.

Ceci implique que ces acteurs privés trouvent un intérêt à ce partage, en termes d'image et de réputation ou d'ouverture à de nouvelles collaborations avec d'autres acteurs par exemple.

Axe n° 2 :  inciter les acteurs privés à partager leurs données d'intérêt général, en particulier pour la recherche académique et dans les situations d'urgence

Cette incitation au partage des données peut aussi passer par des expérimentations dans des environnements d'essai (« bacs à sable »). Il s'agit d'essais pilotes permettant d'évaluer l'intérêt potentiel de la donnée pour des situations nouvelles dans lesquelles un service innovant pourrait être utilisé.

II. RENFORCER LA COORDINATION DANS LA GOUVERNANCE EN MATIÈRE D'IA POUR L'ENVIRONNEMENT

La réussite de l'IA dans les politiques publiques en faveur de l'environnement passe également par l'approfondissement des efforts de coordination, de mutualisation et de rationalisation dans la gouvernance, afin la sphère publique gagne en efficacité dans l'exploitation de cet outil.

Il s'agit d'un souhait des opérateurs eux-mêmes, qui en appellent à un renforcement des synergies et de la coordination à plusieurs niveaux.

· Cette demande concerne tout d'abord la gouvernance au plan national. Il s'agit de favoriser une logique d'innovation ouverte au sein des ministères et des opérateurs publics à travers la mutualisation des initiatives, des bonnes pratiques et des retours d'expérience pour l'intégration de l'IA au sein de l'offre de service à destination du public, a fortiori dans un domaine où les coûts d'équipement et d'accompagnement pour la mise en place de solutions technologiques fiables peuvent être élevés.

À titre d'exemple, le Cerema propose que cette démarche de coordination prenne la forme d'un comité interministériel de l'IA avec un rôle de coordinateur national qui pourrait être assuré par la Dinum. Cette gouvernance nationale pourrait s'appuyer sur des référents ministériels pour l'IA qui soient bien identifiés - l'Écolab joue déjà ce rôle pour le ministère de la transition écologique et, en partie, pour le ministère de l'agriculture - afin d'identifier les enjeux et opportunités liés à l'IA, de proposer et piloter des projets IA au sein de la sphère ministérielle et d'assurer un soutien financier pour les expérimentations en cours, comme par exemple dans le cadre du projet « Sofia » initié par l'Ademe.

Le projet « Sofia » : développer une IA publique « de confiance » sur la transition écologique

Le projet « Sofia » piloté par l'Ademe vise à créer un agent conversationnel capable d'extraire des informations pertinentes à partir d'un corpus documentaire sur la transition écologique. Il s'agit de proposer, selon l'expression retenue par l'agence, une « IA publique de confiance » dans ce domaine.

Le dispositif est inspiré de « GiecGTP » (ou « Climate Q & A ») mis au point par la société Ekimetrics. Cet outil permet, à partir d'une requête, d'accéder à des informations pertinentes et sourcées, issues des rapports du GIEC.

Une première interface a été conçue à partir d'un appel à cas d'usage diffusé auprès des personnels de l'Ademe dans le cadre d'une plateforme d'open innovation (innovation ouverte), une vingtaine de projets étant remontés.

La base documentaire qui peut être interrogée par les ingénieurs de l'Ademe comporte à ce jour les corpus du Cerema, du CGDD et de l'Ademe (rapports d'études et de recherche, communiqués de presse, lettres d'informations ; informations issues des sites Internet...).

L'agence souhaite désormais faire participer d'autres opérateurs publics pour élargir la base documentaire. Le BRGM a par exemple fait part de son intérêt.

Le travail doit par ailleurs se poursuivre pour accroître la performance, la fiabilité et l'interopérabilité du dispositif afin d'assurer notamment l'automatisation de l'intégration de nouvelles sources documentaires.

· La volonté de s'inscrire dans un cadre collectif concerne également les modalités d'appropriation de standards communs en matière de données au sein des agences et opérateurs publics et leurs partenaires. Le BRGM souligne que ce partage doit concerner non seulement la normalisation des données mais également les workflows de transformation des données à base d'IA, à travers un usage plus partagé des systèmes de data workflows.

· Enfin, pour aller vers une meilleure connaissance par les usagers potentiels des données, projets et services proposés par les opérateurs publics en lien avec l'IA, un approfondissement des actions de communication envers les publics extérieurs, au premier rang desquels les collectivités territoriales, apparaît nécessaire par exemple à travers l'organisation d'événements comme des webinaires.

Cette démarche serait complémentaire du travail de recensement des cas d'usage de l'IA au service de l'environnement qui a été engagé sous l'impulsion de l'Écolab. Ce dernier souligne qu'« une action concrète pour favoriser la généralisation de l'IA à partir de l'expérience accumulée par les collectivités sur l'ensemble du territoire est la mise en place future d'une bibliothèque commune. Elle intègrerait des jeux de données et des modèles d'IA dans une logique de mutualisation interterritoriale et le développement de “communs ouverts”. C'est un besoin commun des collectivités, opérateurs du RST du pôle ministériel et au niveau interministériel. »68(*)

Axe n° 3 :  renforcer la coordination dans le domaine de l'IA pour l'environnement afin d'accroître l'efficacité de l'action publique

III. CHERCHER LA MEILLEURE ORIENTATION POSSIBLE DES SUJETS DE RECHERCHE SUR L'IA POUR L'ENVIRONNEMENT

La recherche sur les usages possibles de l'IA en faveur de l'environnement n'échappe évidemment pas aux difficultés dont souffre le monde de la recherche en général et auxquelles les agences de programme récemment mises en place visent à apporter une réponse.

Comme l'ont souligné de nombreux rapports parmi lesquels le rapport Gillet de 2023, le nombre élevé des appels à projets et leur morcellement, outre qu'ils conduisent parfois davantage à des concurrences qu'à de réelles collaborations entre organismes de recherche, consomment des ressources importantes et entraînent un accroissement des délais de mise en oeuvre.

Dans ce contexte, les agences de programme ont pour ambition d'améliorer la structuration des sujets de recherches à partir d'une analyse prospective. « Comment juger aujourd'hui des recherches potentiellement utiles demain ? Comment prévoir ou décider aujourd'hui des savoirs dont nous pourrions avoir besoin demain ? » C'est la question formulée par l'Inria, qui apparaît centrale dans le domaine de l'IA compte tenu des évolutions rapides qui le caractérise. Il s'agit, pour reprendre l'expression du rapport Gillet, de se saisir des « basculements de la science à temps ».

Pour l'Inria, l'enjeu est d'adopter des approches originales et d'identifier des projets exploratoires sur l'IA plus risqués, et d'orienter les financements plus largement vers les recherches en rupture. Ces projets novateurs auraient vocation à se déployer à côté de gros projets visibles plus classiques.

Sans contredire cette approche, d'autres acteurs comme Météo-France appellent néanmoins à ne pas délaisser la recherche sur les approches classiques auxquelles l'IA pourrait avoir tendance à se substituer.

La complémentarité de la recherche sur l'IA et de celle sur les approches classiques selon Météo-France

« L'importance accordée à l'IA ne doit pas se faire au détriment de la recherche scientifique nécessaire pour continuer de faire avancer les connaissances et les modèles traditionnels. De même, il est important de veiller à ce que le développement de nouvelles productions basées sur l'IA ne conduise pas à une perte de compétence et d'expertise sur les approches classiques. Pour au moins la prochaine décennie, ces avancées continueront d'être essentielles à l'amélioration des produits générés par l'IA. »69(*)

Ainsi que l'observe l'Inria, « en sciences de l'environnement, on observe une hybridation entre les techniques de modélisation classiques et celles issues de la science des données ». L'orientation retenue pour les sujets de recherche doit ainsi parvenir à un équilibre optimal entre explorations d'innovations de rupture et poursuite de la recherche pour l'amélioration des modèles classiques.

Enfin, les analyses prospectives réalisées par les équipes de recherche ne sauraient mettre de côté les apports des technologies fondées sur l'IA dont de multiples exemples d'applications concrètes existent aujourd'hui. Or cet aspect est encore trop souvent négligé dans les réflexions menées, y compris dans les cercles d'experts.

Le sujet de l'IA peu présent dans les études prospectives sur l'environnement

« Afin de mieux comprendre notre interdépendance avec les biotopes de notre planète, de nombreux chercheurs se sont attachés à créer des scénarios permettant d'évaluer ce que pourraient être nos modes de vie en 2050. Si ces scénarios sont très différents les uns des autres, la majorité d'entre eux, même les plus technosolutionnistes, évoquent des changements d'usages très importants. L'Ademe, par exemple, a développé quatre scénarios prospectifs, très orientés sur les usages du quotidien ; le GIEC, lui, en a développé cinq ; l'Université de Standford en a créé une dizaine, et ainsi de suite. [...]

[C]e qui frappe en lisant ces scénarios, c'est la faible importance qui est donnée aux technologies informationnelles. Les modèles sont développés en faisant pour ainsi dire abstraction de leur potentiel et de leur capacité à traiter en masse des enjeux fondamentaux. »

Gilles Babinet, Green IA. L'intelligence artificielle au service du climat, 2024, p. 171

Axe n° 4 :  intégrer les apports de l'IA dans les analyses prospectives sur l'évolution du climat et des politiques environnementales à différents horizons

IV. TROUVER LE BON MODÈLE ÉCONOMIQUE

A. QUELLE PLACE FACE AUX GRANDS ACTEURS PRIVÉS INTERNATIONAUX ?

Face aux mastodontes internationaux, les acteurs de l'IA en France et en Europe évoluent dans un contexte concurrentiel asymétrique au regard des moyens colossaux investis par ces grandes entreprises. Quelle place pourront-ils occuper dans le domaine de l'IA dans la prochaine décennie ? Peut-on envisager des complémentarités ou ira-t-on inexorablement vers une accentuation de ce système à plusieurs vitesses ?

1. Des expertises à la fois concurrentes et complémentaires

Dans le domaine de la météorologie par exemple, de grandes entreprises privées telles que Nvidia, Huawei, DeepMind ou encore Microsoft ont investi des sommes considérables dans le développement d'émulateurs de systèmes de prévision dont les premiers résultats ont été rendus publics en 2022.

Ces modèles ont été entraînés sur les grandes bases de données météorologiques publiques, par exemple celle du Centre européen de prévision météorologique à moyen terme (CEPMMT)70(*).

De fait, comme l'indique Laure Raynaud, chercheur au Centre national de recherches météorologiques (CNRM) : « Contre toute attente, les modèles d'IA tels que Pangu Weather ou Graph-Cast [...] rivalisent désormais sur certains aspects avec le modèle physique du CEPMMT, considéré comme le meilleur modèle de prévision opérationnel actuellement» Au point que les prévisions quotidiennes de ces nouveaux modèles sont désormais diffusées sur le site du centre européen lui-même71(*).

Les cartes ci-après montrent un exemple de prévisions comparées de température et de vent en Europe de l'Ouest entre le modèle d'IA de Pangu Weather et le modèle Arpège de Météo-France.

Prévision de température (plage de couleur) et de vent (barbules), calculée par le modèle physique Arpège de Météo-France (à gauche) et le modèle IA Pangu Weather (à droite) sur le domaine Europe-Atlantique.

Source : Météo-France72(*)

Loin d'offrir des prévisions à une échelle suffisamment fine pour répondre aux enjeux d'un service climatique comme Météo-France73(*), ces modèles, malgré leurs imperfections, apportent la preuve que la combinaison de modèles physiques et d'IA permet d'améliorer la prévision d'une partie des variables météorologiques dans des temps de calcul très courts.

Reste que la capacité des entreprises privées à développer, à partir de données gratuites produites par des opérateurs publics, des produits commerciaux venant potentiellement concurrencer ces mêmes opérateurs doit être interrogée.

Les questions posées par la coexistence avec les géants du numérique : le cas des services météorologiques et climatiques

Dans les conditions actuelles, les outils conçus par les géants du numérique ne permettent pas d'atteindre des résultats suffisamment performants pour la prévision météorologique à une échelle fine. À ce stade, les Gafam ont en effet centré leurs développements sur des modèles globaux et non sur des modèles à petite échelle comme le modèle AROME de l'établissement Météo-France.

Ce dernier indique cependant se servir des outils des Gafam comme de briques technologiques pouvant être reprises en partie ou adaptées à ses propres besoins dans le cadre de l'utilisation de ses modèles d'IA. Il en va notamment ainsi dans le cadre :

- du développement de « py4cast » dont l'objectif est d'entraîner des modèles d'IA pour la prévision à aire limitée, cet outil intégrant, parmi différents types d'architecture de réseaux de neurones, une adaptation régionale de GraphCast (outil de Google) développée par un chercheur suédois ;

- de l'utilisation du modèle Pangu Weather de Huawei pour établir à titre expérimental des prévisions globales quotidiennes dans les mêmes conditions initiales que le modèle global ARPEGE de Météo-France ;

- des tests actuellement réalisés du modèle DGMR de DeepMind pour la prévision en quasi-temps réel des précipitations à une échelle régionale.

Avec toutes les réserves requises, le Centre européen pour les prévisions météorologiques à moyen terme (ECMWF) se sert lui aussi, à côté de son propre modèle d'IA, du modèle GraphCast de Google et de ceux des entreprises NVIDIA et Huawei.

Si la performance de ces modèles privés ne permet pas d'atteindre l'état de l'art en matière de prévisions météorologiques, les évolutions dans ce domaine sont rapides et la donne pourrait vite évoluer. Google Deep Mind est par exemple en passe de remplacer GraphCast par le nouvel algorithme GenCast, capable de prévoir l'occurrence d'événements comme les cyclones dans le cadre d'une approche probabiliste74(*).

Celle-ci fournit des résultats à une vitesse très supérieure à celle des modèles classiques qui reposent sur la résolution d'équations physiques. Selon Météo-France, le modèle pourrait se révéler très utile pour les prévisions de très court terme (entre 1 et 6 heures) qui correspondent à des échelles de temps trop courtes pour les modèles physiques, mais également pour des prévisions à 3 ou 4 semaines, dans l'hypothèse où des systèmes d'IA arriveraient à détecter des « signatures » dans l'atmosphère que les scientifiques n'auraient pas réussi à trouver afin de réaliser des prédictions fiables.

Cette évolution laisse entrevoir la possibilité de nouvelles synergies et les opérateurs publics ne peuvent se désintéresser des outils offerts par les géants du numérique.

Les enjeux de souveraineté et d'indépendance liés aux missions d'un opérateur national tel que Météo-France, au regard notamment de la sécurité des personnes et des biens, et, au-delà, pour des secteurs comme la défense ou l'aéronautique, justifient néanmoins une approche prudente et le maintien d'un haut niveau d'expertise.

La réflexion doit se poursuivre sur les moyens d'inciter les grandes entreprises privées qui utilisent les données mises à disposition par le secteur public de rendre elles aussi publics les modèles d'IA entraînés avec ces données. À défaut de conditions imposées en matière d'« open source », des exigences minimales en termes d' « open weights » paraîtraient justifiées.

2. Une fragilisation du modèle économique des opérateurs publics

Comme en témoigne la situation critique de l'IGN, la politique d'open data est venue fragiliser le modèle économique des opérateurs publics dont l'équilibre financier dépendait de la vente de données.

S'il a entrepris dès 2019 de refonder son modèle en recentrant ses missions sur la production de données socles souveraines et le pilotage de grands projets d'accompagnement de politiques publiques en réponse à des commandes diverses, l'IGN n'est pas parvenu à retrouver un point d'équilibre économique. Au contraire, le déficit de l'établissement s'est fortement aggravé du fait de l'augmentation des coûts de production de ses missions et de la mise à disposition gratuite de ses données75(*).

« Mis sous tension par les bouleversements du paysage de la donnée géolocalisée, concurrencé par l'émergence d'acteurs publics comme privés, affecté par l'essor des démarches collaboratives, l'IGN était il y a quelques années, remis en cause dans son identité et contesté dans sa légitimité. Le processus d'ouverture et de gratuité des données publiques, s'il lui ouvre de nouvelles perspectives de collaborations, implique une transformation du modèle d'un institut dont l'équilibre financier dépendait de la vente de ses données. »76(*)

La question du prix de la donnée reste ainsi posée.

B. DE LA RECHERCHE À L'INDUSTRIALISATION : LA QUÊTE DE LA CONTINUITÉ ET DU MAINTIEN DES COMPÉTENCES

Avec la « fuite des cerveaux », les avancées produites sur le territoire français finissent souvent par bénéficier à d'autres continents en raison d'un manque de moyens et d'attractivité. Dans un récent rapport, l'Office parlementaire d'évaluation des choix scientifiques et technologiques (OPECST), appelle ainsi au développement d'une « filière française ou européenne autonome sur l'ensemble de la chaîne de valeur de l'intelligence artificielle »77(*), à la création d'écosystèmes compétitifs favorables à l'innovation et au renforcement de l'attractivité des opportunités de carrière.

Ce constat rejoint celui de la Commission de l'intelligence artificielle dans son rapport de mars 2024, qui souligne qu'« il est donc essentiel de mettre en place un ensemble de politiques publiques adaptées pour maximiser les gains : politique d'innovation, politique industrielle, politique concurrentielle... »78(*).

Face à l'influence des géants du numérique, en particulier dans le champ de l'IA, les difficultés liées à la valorisation des technologies ayant fait l'objet d'une preuve de concept contribuent au retard pris par la France et l'Europe dans la course à l'innovation.

Certes, grâce à son système de formation (universités et grandes écoles), qui donne une place importante aux mathématiques, la France possède de nombreux talents qui contribuent à l'excellence scientifique (bourses ERC, publications sur des travaux innovants, embauche à l'étranger des jeunes diplômés). Ces compétences sont à la source d'une grosse force de production scientifique.

Cependant, l'un des freins rencontrés dans l'appropriation des possibilités offertes par l'IA reste toujours la capacité des opérateurs publics et des organismes de recherche à se doter des profils nécessaires pour développer, adopter, mettre en oeuvre et analyser les résultats obtenus grâce aux nouvelles technologies d'IA. C'est pourquoi il faut accompagner les stratégies de recrutement des acteurs publics.

Axe n° 5 :  encourager le recrutement de spécialistes de la donnée et de l'IA au sein des opérateurs publics.

EXAMEN EN DÉLÉGATION

Réunie le jeudi 20 février 2025, la délégation à la prospective a examiné le rapport de M. Jean-Baptiste Blanc, et Mmes Nadège Havet et Christine Lavarde sur « IA et environnement ».

Mme Christine Lavarde, présidente, rapporteure. - Ce matin, nous allons d'abord examiner le dernier rapport de notre série sur les usages de l'intelligence artificielle (IA) qui traite de l'environnement et fait écho au rapport sur l'IA et les territoires présenté la semaine dernière par Amel Gacquerre et Jean-Jacques Michau, nous évoquerons ensuite les prochains travaux de notre délégation.

Avec Nadège Havet et Jean-Baptiste Blanc, nous allons donc tout d'abord vous présenter le rapport sur l'usage de l'IA dans l'environnement. L'IA est en effet appelée à jouer un rôle majeur dans l'action publique à l'ère de l'anthropocène, marquée par des changements rapides de l'environnement et des tensions croissantes sur les ressources naturelles.

Pour explorer ces liens entre IA et environnement et disposer d'un état des lieux objectif, nous nous sommes appuyés sur une dizaine d'auditions et de contributions écrites. L'approche retenue par la délégation étant centrée sur l'avenir du service public, nous avons fait le choix de solliciter à titre principal les opérateurs et instituts de recherche publics : l'Inria, l'Ademe, le BRGM, le Cerema, l'Ifremer ou encore Météo-France, sans compter l'IGN que nous avons auditionné en réunion plénière.

Notre objectif était d'apprécier la place occupée par l'IA en leur sein, en identifiant des cas d'usage concrets - avérés ou futurs -, et plus largement, d'évaluer dans quelle mesure l'IA peut contribuer à accélérer la transition écologique.

Nos échanges ont fort heureusement confirmé l'attention portée à l'IA par ces différents acteurs. Nous sommes néanmoins restés en partie « sur notre faim » s'agissant de la dynamique enclenchée, inégale selon les opérateurs, et de l'efficacité insuffisante de la coordination des nombreuses initiatives dans ce domaine.

Il faut reconnaître que face aux bouleversements engendrés par l'IA, les questionnements et tâtonnements sont encore nombreux.

Le champ de l'environnement étant particulièrement vaste, notre rapport ne prétend pas réaliser un inventaire exhaustif des cas d'usage.

Il n'a pas non plus vocation à approfondir le sujet central des conséquences environnementales de l'IA, que nos choix politiques et sociétaux ne peuvent évidemment pas ignorer.

Cette question de l'empreinte environnementale de l'IA - transversale à l'ensemble de nos rapports thématiques - fait néanmoins l'objet d'un encadré détaillé en préambule de notre rapport. Je me limiterai donc à rappeler ici quelques principaux constats et ordres de grandeur bien connus.

Comme en témoignent les rapprochements des géants du numérique avec l'industrie nucléaire, l'IA est l'une des raisons principales de la croissance des besoins en électricité, notamment ceux des centres de données, avec des enjeux locaux potentiellement importants. Une requête sur un assistant comme ChatGPT consomme dix fois plus d'électricité qu'une recherche classique sur Google.

Par conséquent, l'évolution vers des systèmes d'IA de plus en plus grands et généralistes, comme les LLM qui sont très énergivores, accentue, dans les conditions actuelles, la tendance à la hausse des émissions de CO2.

Enfin, de grandes quantités d'eau sont utilisées pour refroidir les serveurs des centres de données. Une étude de chercheurs de l'Université de Californie anticipe qu'en 2027, l'IA pourrait être à l'origine de prélèvements d'eau s'élevant entre 4,2 et 6,6 milliards de mètres cubes, soit l'équivalent de quatre à six fois la consommation annuelle du Danemark ou de la moitié de celle du Royaume-Uni.

Au total, la question de savoir si les services apportés par l'IA dans les politiques environnementales sont globalement susceptibles de compenser l'empreinte écologique de cette même IA reste ouverte. Idéalement, le recours à l'IA et le choix de l'outil devraient faire l'objet d'une balance environnementale au cas par cas, les IA spécialisées demeurant par exemple moins énergivores et plus efficaces que les IA polyvalentes. C'est tout l'enjeu de l'IA dite « frugale ».

Ces précisions liminaires étant faites, venons-en aux avancées majeures promises par l'IA au service de la transition écologique.

Mme Nadège Havet, rapporteure. - On peut schématiquement identifier un triple intérêt de l'IA dans le domaine de l'environnement : contribuer à une meilleure connaissance de l'environnement, pour une prise de décision plus éclairée ; améliorer la capacité de simulation et de prévision, pour anticiper et s'adapter aux enjeux, en particulier dans les situations de crise ; renforcer le processus de décarbonation et d'optimisation énergétique dans des secteurs variés. Je reviendrai successivement sur chacun de ces apports.

L'IA apporte tout d'abord une contribution majeure à la connaissance de notre environnement. Cela concerne en particulier les sols et la biodiversité sur terre comme en mer.

La nécessité de disposer de données précises et fiables sur l'usage des sols et leur qualité constitue un enjeu de taille pour le suivi de leur occupation et l'aménagement du territoire. Dans cet objectif, l'automatisation permise par l'IA a apporté une contribution décisive à la production de la nouvelle génération du référentiel national d'occupation des sols (OCS). Celui-ci a vocation à être utilisé à différents échelons territoriaux, pour la mise en oeuvre du ZAN notamment.

Dans ce cas d'espèce, le recours à l'IA a permis à la fois une réduction importante des coûts, en réduisant la part humaine dans l'interprétation des photos, et une diminution des délais de production, avec un rythme de couverture d'un tiers de la France par an en régime de croisière.

Au-delà du sol, de nombreux cas d'usage de l'IA pour la connaissance de l'environnement existent : suivi de la biodiversité et des écosystèmes, cartographie de la micro-faune des océans ou encore aide à l'exploration de l'océan profond et de ses ressources en métaux rares. À titre d'exemple, le projet « Meiodyssea », auquel participe l'Ifremer, s'appuie sur l'IA pour identifier de nouvelles espèces de la méiofaune, c'est-à-dire des petits organismes nichés dans les sédiments des océans, avec un gain de temps considérable par rapport aux méthodes traditionnelles : quelques minutes au lieu de plusieurs semaines.

En deuxième lieu, des techniques d'IA sont mises en oeuvre pour des simulations dans une démarche prédictive ou d'alerte précoce. Elles permettent d'anticiper des changements à court, moyen ou long terme.

Pour le suivi des nappes phréatiques, l'outil « météaunappes » du BRGM repose par exemple sur du machine learning. À partir de séries temporelles de suivi du niveau des nappes et de leur composition chimique, cet outil permet d'anticiper le comportement saisonnier de certaines nappes en fonction de scénarios climatiques. L'établissement est ainsi en capacité de fournir aux autorités une information prédictive relativement fiable pour la gestion de l'eau à l'échelle de certains territoires.

L'IA apporte également une contribution significative dans le domaine de la météorologie, où elle fait gagner un temps considérable.

Météo-France indique utiliser fréquemment une technique de réseaux de neurones convolutifs, adaptée au traitement d'image. Les applications sont multiples : prévision à court terme de la couverture nuageuse, estimation des précipitations à partir d'images satellites, détection de neige sur des images de webcams ou encore identification d'orages violents dans les résultats des modèles de prévision numérique du temps.

L'IA ira-t-elle pour autant jusqu'à remplacer les modèles météorologiques actuels ? Selon les scientifiques, les deux approches ont vocation à cohabiter à court et moyen terme, le passage à un modèle d'IA intégral étant encore une perspective relativement lointaine. En effet, les données nécessaires à l'apprentissage des modèles d'IA sont aujourd'hui issues des modèles physiques. Or les IA doivent être régulièrement entraînées pour ne pas produire de résultats obsolètes.

L'IA est également de plus en plus employée dans la science du climat. En témoigne la recherche sur l'apport de l'IA pour anticiper des phénomènes localement dangereux, comme les ouragans ou la prédiction des canicules.

Enfin, comme l'a montré le rapport sur l'IA et les territoires, une approche très prometteuse pour l'aide à la décision fondée sur l'IA est celle des jumeaux numériques. L'intérêt du jumeau numérique est qu'il peut apprendre en permanence à partir de multiples sources. À mesure que la contrepartie physique change, il peut se mettre à jour à une vitesse beaucoup plus rapide que les modèles de cartographie et de simulation précédents.

Le « jumeau numérique de la France » porté par l'IGN doit offrir une cartographie du futur du territoire en fonction de différents scénarios d'évolution des conditions climatiques et de l'action publique. L'IA sera utilisée de façon massive : pour la spatialisation et les représentations polymorphes (paysages, ouvrages d'art, infrastructures) mais aussi pour des simulations. Parmi les cas d'usage possibles touchant à l'environnement, on peut citer : la gestion du littoral, pour laquelle le jumeau numérique permettra par exemple de visualiser des scénarios d'évolution pour les infrastructures ou les biens menacés ; la résilience du système agricole, avec l'anticipation du changement climatique sur les types de culture ou la modélisation à grande échelle des évolutions des pratiques agricoles ; la gestion durable des forêts, en simulant son évolution en fonction de diverses hypothèses climatiques. La mobilisation de modèles de simulation facilitera l'élaboration d'outils d'aide à la décision mais aussi d'intermédiation.

En dernier lieu, l'IA permet de renforcer les processus de décarbonation et d'optimisation énergétique dans des secteurs variés. De nombreuses entreprises sont à l'origine d'applications et de services innovants visant à améliorer les chaînes logistiques et l'aide à la décision ou à la maîtrise des risques.

C'est le cas en particulier dans le domaine de l'agriculture, où le marché de l'IA connaît une croissance économique importante. Avec les progrès de l'apprentissage automatique, l'IA est de plus en plus utilisée pour analyser et contrôler une multitude de facteurs (température, hygrométrie, intrants, traitements mécaniques, types de semences...), pour limiter les émissions de CO2 et tendre vers des pratiques plus agroécologiques.

Dans le secteur de la pêche, des techniques d'IA sont utilisées pour développer des « filets intelligents » dans le cadre de la pêche au chalut. L'enjeu est de minimiser les captures aléatoires sans distinction d'espèces de poissons pour réduire le gaspillage et préserver les ressources.

Dans le domaine des énergies renouvelables, la start-up NamR, partenaire de l'IGN, a développé une IA capable de connaître le potentiel photovoltaïque des bâtiments et de définir la configuration optimale pour l'installation de panneaux solaires sur les toits. Des techniques d'IA permettent par ailleurs à cette entreprise d'exploiter des données publiques sur les logements afin de produire des propositions personnalisées sur leur rénovation énergétique.

Avant de céder la parole à Jean-Baptiste Blanc, un dernier mot pour souligner que l'attention portée à l'IA frugale permet de concilier innovation et durabilité environnementale dans le cadre d'usages numériques plus responsables. C'est l'une des ambitions affichées par l'action publique aux niveaux français et européen.

M. Jean-Baptiste Blanc, rapporteur. - Pour tenter de structurer l'action publique, le Gouvernement s'est doté en 2021 d'une feuille de route visant à généraliser l'IA au service de la transition écologique. Au sein du Commissariat général au développement durable (CGDD), le ministère de la transition écologique s'appuie sur un laboratoire d'innovation - l'Écolab -, chargé d'animer l'écosystème de l'innovation verte et de piloter la stratégie en faveur de l'IA pour l'environnement. Son action pour faire émerger des cas d'usage concrets de l'IA dans le secteur de l'environnement s'est récemment renforcée avec le lancement en 2023 de l'appel à projets DIAT (pour Démonstrateur d'IA dans les territoires).

Mis en oeuvre par la Banque des territoires, cet appel à projets vise des applications d'IA frugale et des technologies répondant aux besoins écologiques et énergétiques spécifiques de chaque territoire. Les huit lauréats subventionnés dans le cadre de la deuxième vague de démonstrateurs proposent des solutions variées pour optimiser les ressources naturelles (eau, énergie) et réduire l'empreinte carbone dans les processus urbains et industriels. Le déploiement de ces solutions très concrètes en conditions réelles permet de confirmer l'apport novateur des solutions développées et d'évaluer les conditions de passage à l'échelle. Il s'agit d'une initiative intéressante pour faire se rencontrer la demande des collectivités et l'offre des entreprises.

Au sein des agences, l'intérêt stratégique de l'IA comme technologie de rupture est également pris en compte, qu'il s'agisse des programmes scientifiques ou des plans d'adaptation des compétences.

Les développements rapides de l'IA ont mis en lumière la nécessité pour les opérateurs d'accueillir au sein de leurs équipes des spécialistes de la science des données capables de travailler en synergie avec les acteurs de l'environnement.

Grâce à l'attractivité de leurs missions, à la qualité scientifique de leurs projets et à l'adaptation de leur accompagnement en termes de formation, certains établissements sont parvenus à se doter des compétences recherchées. C'est le cas de l'IGN dont les équipes sont passées en l'espace de deux ans de 8 à 30 ingénieurs spécialisés.

L'IGN constitue cependant un cas à part, la plupart des opérateurs déplorant la difficulté à se doter des meilleures compétences.

À Météo-France par exemple, un « LabIA » constitué de quatre personnes a été mis en place en 2020. Le développement d'une capacité de recherche est passé par des réallocations de moyens et la quête de ressources complémentaires dans le cadre de projets partenariaux.

L'établissement estime cependant que pour être à la pointe dans le domaine de l'IA et engager tous les travaux nécessaires, l'effectif mobilisé et les collaborations engagées avec d'autres structures s'avèrent insuffisants.

La mise à niveau des compétences apparaît d'autant plus indispensable que les nombreuses réflexions et expérimentations qui foisonnent ont besoin d'être ancrées dans le temps et dans l'espace et que le recours à des techniques avancées d'IA est encore très exploratoire.

Certes, le potentiel de l'IA générative est bien identifié par les opérateurs, en particulier pour renforcer la capacité d'extraction d'informations pertinentes dans des corpus documentaires volumineux ou pour l'analyse de documents soumis à une évaluation environnementale. Par exemple, le traitement automatique du langage est déjà utilisé au sein du ministère de la transition écologique pour aider les agents de l'Autorité environnementale à traiter les dossiers qui sont soumis à une évaluation environnementale (outil « LIRIAe »). Cependant, pour des usages plus avancés, l'appropriation de l'IA est toujours en cours.

L'animation de l'écosystème de recherche repose de façon plus marginale sur l'organisation de compétitions scientifiques sous forme de « challenges » ou de « hackathons ». L'environnement constitue un terrain privilégié, les jeux de données ouverts servant à stimuler la recherche et les projets partenariaux. C'est le cas par exemple des événements organisés par l'Ademe, tel que le « challenge Dis-Ademe ».

Ce type de démarche exploratoire apparaît intéressant sous réserve que ces démarches soient suffisamment structurées et que les résultats prometteurs puissent rapidement déboucher sur des évolutions concrètes.

Cela nous amène aux axes de travail que nous avons identifiés pour le futur. Quatre séries de conditions nous paraissent devoir être réunies pour assurer la réussite de l'IA au service de l'environnement : le renforcement de l'« exploitabilité » des données ; l'amélioration de la gouvernance ; la bonne orientation des dispositifs de recherche ; et la mise en place d'un modèle économique adapté.

Première condition : favoriser la disponibilité et la qualité de la donnée. L'accès à des données de qualité constitue une condition indispensable de la performance des systèmes d'IA.

Dans le domaine de l'environnement, de nombreux acteurs publics et privés interviennent à divers titres dans la production et la réutilisation de données : opérateurs et services de l'État dans toute leur diversité, collectivités territoriales, autres acteurs publics et privés des territoires ou encore organismes publics et privés de recherche et acteurs de la société civile. Avec le développement du numérique et la politique d'open data, un écosystème foisonnant de la donnée a ainsi vu le jour. Pourtant, la connaissance et l'exploitation des données rendues accessibles restent insuffisantes.

D'une part, certaines données environnementales sont parfois peu utilisées en raison de leur caractère difficilement exploitable ou parce qu'elles ne suscitent pas l'intérêt escompté. La multiplicité des sources peut rendre difficilement identifiables les données de référence et par conséquent entraver leur « découvrabilité » selon l'expression de l'Écolab. C'est pourquoi il convient en tout premier lieu de poursuivre les efforts visant à structurer les jeux de données en matière environnementale et à améliorer leur référencement.

D'autre part, certaines « briques » de notre environnement font encore l'objet d'une connaissance lacunaire, soit en raison de l'imperfection du système de recueil des informations, soit parce que la connaissance de ces éléments reste dans les mains d'acteurs privés.

Les données du sous-sol font par exemple l'objet d'informations encore très parcellaires. Or une connaissance approfondie et fiable de cet élément est nécessaire pour la prise en compte des risques naturels dans le bâti et l'aménagement du territoire. Un travail de longue haleine doit encore être mené par le BRGM dans ce domaine.

Certains acteurs privés possèdent par ailleurs des informations qui peuvent s'avérer précieuses, en particulier dans certains cas d'urgence. Or rien ne les oblige aujourd'hui à partager ces données. En voici une illustration.

Dans le cadre du projet « RéSoCIO », le BRGM a engagé une étude sur l'utilisation de l'IA pour faciliter le traitement d'informations issues des réseaux sociaux après une catastrophe naturelle. L'étude s'appuyait sur le réseau Twitter, devenu X.

Un usage intensif des réseaux sociaux est en effet souvent observé après la survenue de catastrophes naturelles, comme par exemple lors du séisme de Cholet en 2019. Dans ces situations, l'IA se présente comme un atout majeur pour identifier les messages utiles parmi les millions de « posts » envoyés chaque minute, et les analyser pratiquement en temps réel.

Le dispositif mis au point permet, en quelques secondes, de localiser et d'évaluer les impacts.

Jusqu'à début 2023, Twitter permettait à chacun d'utiliser une partie de ses données gratuitement. Depuis son rachat par Elon Musk, le réseau social a cependant remplacé son API gratuite par des solutions onéreuses devenues rédhibitoires pour les recherches académiques. Cette évolution a soudainement rendu inutilisables les modèles d'analyse de tweets développés par l'équipe de recherche tout en démobilisant les acteurs associés (sapeurs-pompiers, services municipaux, volontaires).

Mme Christine Lavarde, présidente, rapporteure. - Dans ce contexte, la réflexion sur les conditions dans lesquelles la notion d'intérêt général pourrait être utilisée pour pousser les acteurs privés à les partager dans un cadre précis doit se poursuivre. Ceci implique que ces acteurs privés trouvent un intérêt à ce partage, en termes d'image et de réputation ou d'ouverture à de nouvelles collaborations avec d'autres acteurs par exemple.

Deuxième condition de la réussite de l'IA pour l'environnement : la gouvernance. Il est nécessaire d'approfondir les efforts de coordination, de mutualisation et de rationalisation dans la gouvernance, afin que la sphère publique gagne en efficacité dans l'exploitation de cet outil.

À titre d'exemple, le Cerema propose que cette démarche de coordination prenne la forme d'un comité interministériel de l'IA avec un rôle de coordinateur national qui pourrait être assuré par la Dinum. Quel que soit le schéma retenu, cet effort apparaît indispensable, ne serait-ce que pour écarter le risque de redondances dans les projets explorés par les opérateurs.

Troisième condition : trouver la meilleure orientation possible pour les sujets de recherche de l'IA sur l'environnement.

Les agences de programme récemment mises en place ont pour ambition d'améliorer la structuration des sujets de recherche à partir d'une analyse prospective. Il s'agit, pour reprendre le questionnement de l'Inria, de savoir « comment juger aujourd'hui des recherches potentiellement utiles demain et comment prévoir ou décider aujourd'hui des savoirs dont nous pourrions avoir besoin demain ».

Pour l'Inria, l'enjeu est d'adopter des approches originales, d'identifier des projets exploratoires sur l'IA plus risqués, et d'orienter les financements plus largement vers les recherches en rupture. Ces projets novateurs auraient vocation à se déployer à côté de gros projets visibles plus classiques.

Autre point : les analyses prospectives réalisées par les équipes de recherche ne doivent pas mettre de côté les apports des technologies fondées sur l'IA. Or cet aspect est encore trop souvent négligé dans les études de prospective, y compris dans les réflexions menées par les experts. Il convient donc d'intégrer les apports de l'IA dans les analyses prospectives sur l'évolution du climat et des politiques environnementales à différents horizons.

Dernière condition : trouver le bon modèle économique.

Quelle place les acteurs de l'IA en France et en Europe pourront-ils occuper dans leur domaine au cours de la prochaine décennie face aux Gafam ? Dans le domaine de la prévision météo par exemple, de grandes entreprises privées investissent des moyens colossaux dans des systèmes qui rivalisent aujourd'hui avec les modèles des opérateurs publics.

Cette capacité du secteur privé à développer, à partir de données gratuites produites par les opérateurs publics, des produits commerciaux qui viennent en partie concurrencer ces mêmes opérateurs doit être interrogée. Elle pose en tout cas la question du prix de la donnée. Car, comme en témoigne la situation critique de l'IGN, la politique d'open data a fragilisé le modèle économique des opérateurs publics dont l'équilibre financier dépendait de la vente de données.

Dernier point important, auquel Jean-Baptiste Blanc a déjà fait référence : l'un des freins rencontrés dans l'appropriation des possibilités offertes par l'IA reste toujours la capacité des opérateurs publics et des organismes de recherche à se doter des profils nécessaires pour développer, mettre en oeuvre et analyser les résultats obtenus grâce à l'IA. Il est donc indispensable d'accompagner les stratégies de recrutement des acteurs publics pour leur permettre de se doter des meilleures compétences.

Tels sont, mes chers collègues, les constats et axes de travail qui viennent compléter le panorama de notre délégation sur l'IA et le service public. Nous vous remercions de votre attention.

Mme Vanina Paoli-Gagin. - Merci pour ce rapport très intéressant. Vous êtes-vous interrogés sur la question de la propriété des données et celle de savoir si les données sont hébergées dans des solutions qui échappent à toute extraterritorialité ?

Il est fantastique que nous puissions mieux connaître notre planète pour trouver des solutions de remédiation. Mais si cela revient presque à délivrer un mode d'emploi de nos vulnérabilités, c'est autre chose. Avez-vous eu la possibilité de creuser ce point ?

M. Bernard Fialaire. - On voit bien l'intérêt de la coordination des initiatives. L'expérimentation menée à Villeurbanne sur les centres locaux d'information et de coordination (CLIC) pour les personnes âgées, à l'époque où je suis entré dans la vie publique, est parlante : une troisième catégorie d'assistante sociale a été créée pour faire le lien entre les assistantes sociales des hôpitaux et celles du terrain. À la lumière de cette expérience, je ne suis pas certain que la coordination soit toujours efficace.

En revanche, la démarche de Jean-Louis Borloo, qui a créé un grand ministère de l'environnement réunissant plusieurs directions, dont la direction de la forêt, était intéressante car elle avait pour but d'éviter le travail en silo.

Même dans la lutte contre les Gafam, on s'aperçoit que l'on pourrait presque créer le plus grand bureau d'ingénierie publique à condition que tout le monde travaille ensemble. Il y a des spécificités propres à chaque discipline mais aussi un ensemble de données à partager. Si on arrivait à regrouper et à croiser les données, en utilisant l'intelligence artificielle et des modèles de calcul, on pourrait franchir un pas important.

Avez-vous rencontré des gens très attachés à leur pré carré ou, au contraire, très ouverts à un brassage des données, qui est la source d'efficacité dans le domaine de l'IA ?

Mme Amel Gacquerre. - Je vous remercie pour tous ces travaux et éléments qui, au fil de la présentation des rapports, nous permettent de dresser des recommandations que nous partageons complètement, notamment sur la gouvernance et la nécessité de structurer les données.

Je voudrais vous entendre sur l'IA frugale, car nous allons vers une IA énergivore et très consommatrice en eau. Dans les Hauts-de-France, nous sommes confrontés à ce problème avec le futur data center à Cambrai, où l'on voit déjà aujourd'hui une levée de boucliers de certains acteurs qui nous alertent sur cette consommation en eau. Je pense que nous allons vivre cette tension dans les territoires.

La question de la frugalité pose la question de l'impact et de la mesure de l'impact. Existe-t-il aujourd'hui des acteurs publics de bon niveau sur la mesure de l'impact de l'IA en termes de consommation énergétique ? Avons-nous des avancées importantes en la matière ?

M. Jean-Jacques Michau. - Je vous remercie et vous félicite. Lorsque nous avons travaillé avec Amel Gacquerre, nous n'avons pas tranché la question de savoir s'il est préférable d'avoir des données ouvertes ou si l'on doit prendre une autre direction. Il s'agit de la question de la propriété de la donnée. À qui est-elle ouverte ? Et si c'est ouvert, est-ce que c'est ouvert pour tout le monde ?

Après avoir suivi ces travaux, je veux remercier la Présidente pour sa proposition de rédaction de plusieurs petits rapports. Faut-il à présent réaliser une synthèse de tout cela ?

M. Christian Redon-Sarrazy. - Je remercie les trois rapporteurs pour ce rapport particulièrement éclairant sur un sujet plus que sensible.

Je vais rebondir sur la proposition de Jean-Baptiste Blanc sur le ZAN et la santé des sols. La santé des sols, c'est aussi l'arbre, l'oiseau qui a son nid en haut de l'arbre, les racines de l'arbre, la biodiversité à moins d'un mètre de profondeur, la roche un peu plus bas, et, encore plus en profondeur, l'eau. Pour tous ces éléments, on trouve des données dans beaucoup d'endroits : celles de l'Office français de la biodiversité (OFB), celles de l'agriculteur qui travaille, celles de la propriété forestière, du BRGM ou encore du Cerema.

Cependant, cette donnée est dispersée et chacun la protège en essayant de l'utiliser en fonction de ses préoccupations. Est-ce qu'on ne va pas vers du cloisonnement qui, même avec l'IA, ne permettra pas d'avoir une approche globale, notamment sur la santé des sols et de leur utilisation ?

Ne sommes-nous pas aujourd'hui dans une impasse s'agissant de la capacité des données à interagir et à être partagées ? Qui va faire ce travail de synthèse ? Puisque nous arrivons au dernier rapport d'une série qui a bien cerné les enjeux, sommes-nous capables de capitaliser sur l'existant pour en faire un vrai outil dans différents domaines ?

Avez-vous l'impression qu'on prend ce chemin-là ou est-ce plutôt le contraire, comme le laisse, par exemple, penser l'antagonisme entre l'IGN et le Cerema s'agissant des sols ?

M. Pierre Barros. - Merci pour l'ensemble des rapports sur les usages de l'IA. Il est intéressant de noter qu'au fil des rapports, les mêmes questions sont posées autour de la matière première, les données, et de leur traitement technique, avec notamment la question des data centers.

Pour faire un parallèle avec des choses que nous connaissons déjà, il ne faut pas minimiser les avancées technologiques apparues en vingt ou trente ans d'informatique. À une époque, il fallait une salle entière pour stocker des données. Aujourd'hui, nous pouvons stocker des volumes considérables dans des espaces beaucoup plus petits.

On peut parier sur l'augmentation de la puissance de calcul et les perspectives offertes par les ordinateurs quantiques, qui feront qu'à un moment donné, en termes d'énergie, de puissance de calcul et de refroidissement, on sera sur quelque chose de plus frugal. Cependant, les besoins en calcul augmenteront aussi. Il y a donc des choses qui vont s'équilibrer. Dans le cadre du pilotage, les infrastructures que nous mettons en place aujourd'hui interrogent sur les besoins en électricité, en eau et en surface. Cela rejoint les questions d'aménagement du territoire.

Rappelons-nous, il y a 150 ans, quand on a créé les réseaux ferrés, ce sont eux qui ont structuré l'aménagement du territoire en France.

Le sujet de la donnée est passionnant. Est-ce qu'on considère la donnée comme un bien marchand ? Est-ce qu'on la financiarise, en la traitant comme on traite un bien comme les céréales, qu'on cultive, produit, met sur le marché, valorise ? L'exemple de l'analyse des tweets était intéressant car il permet de voir ce que ces données génèrent comme informations après traitement et analyse, dans le cadre d'un aléa climatique ou d'un événement particulier.

Grâce à l'IA, nous pouvons identifier un problème, voir comment il évolue et faire ce qu'il faut pour prévenir le risque. C'est presque d'utilité publique. La donnée doit-elle être d'utilité publique, avec un traitement public, ou être une denrée comme une autre dans un système marchand ? Ou bien pouvons-nous trouver une solution entre les deux ? Si je voulais faire de l'humour, je dirais : créons une grande agence de l'IA pour gérer tout cela et faisons le point dans vingt ans !

En tout état de cause, les développements en cours nous obligent à réfléchir sur la façon dont nous allons construire les liens entre le secteur public et le secteur marchand sur des choses qui font déjà notre quotidien et qui le structureront encore plus fortement dans quelques années.

Mme Vanina Paoli-Gagin. - La question est posée de savoir ce qui relève des communs numériques, c'est-à-dire de l'intérêt général du public, et ce qui n'en relève pas. Dans un domaine où le champ d'action est mondial, je vois mal comment résoudre l'équation entre intérêt public et intérêt privé et le problème de la monétisation. La donnée est aujourd'hui presque la valeur suprême, celle qui donne le pouvoir. Il s'agit d'un débat juridique qui devra être conduit, mais plutôt dans des instances internationales.

M. Christian Bruyen. - Merci, Madame la Présidente, pour ce rapport qui nous permet d'aborder plus précisément les enjeux de l'émergence de l'IA dans nos politiques publiques dédiées à l'environnement.

Je voudrais faire une suggestion sur un sujet que vous avez déjà évoqué : les besoins énergétiques considérables de l'IA, qu'il s'agisse de la production ou de l'utilisation des puces électroniques, des infrastructures de stockage, de calcul et d'entraînement des modèles d'IA ou encore de la multiplication des applications et des utilisateurs. Tous ces facteurs vont faire exploser les besoins énergétiques. C'est une évidence. On ne sait pas encore calculer précisément le coût environnemental. L'empreinte carbone sera élevée et il y aura un impact sur les ressources naturelles, l'eau et les matériaux précieux.

Je pense que, parallèlement à l'identification des usages bénéfiques de l'IA pour l'environnement, il faudrait se fixer des objectifs significatifs pour une IA plus frugale. C'est aussi la responsabilité des pouvoirs publics de concourir à une prise de conscience plus forte, car l'IA aura des conséquences inévitables sur l'environnement et potentiellement très douloureuses sur les modèles économiques.

Le Sénat pourrait-il être un petit colibri qui travaille sur ce sujet ?

Mme Nadège Havet, rapporteure. - Comme l'a dit Pierre Barros, la donnée constitue effectivement la matière première. C'est ce qui est le plus précieux. Et en fait, nous ne pouvons pas faire fonctionner l'IA si nous n'avons pas un minimum de données.

S'agissant de la question de l'accès aux données, les données publiques sur l'environnement concernées par l'« open data » sont accessibles à tous sur le portail « ecologie.data.gouv.fr ». Lorsqu'il s'agit de données sensibles, qui ne font pas l'objet d'une diffusion généralisée, les pouvoirs publics sont attentifs à l'enjeu de souveraineté. On peut citer les données critiques sur les minerais qui font l'objet d'un inventaire piloté par le BRGM. L'enjeu de la sécurisation de la donnée est donc bien pris en compte.

M. Jean-Baptiste Blanc, rapporteur. - Je trouve que la donnée sur le sol commence à progresser depuis la loi « climat et résilience ». Cependant, comme Christian Redon-Sarrazy l'a dit, il existe une compétition entre des organismes tels que le Cerema, l'IGN, le BRGM et d'autres.

Un autre problème se pose, qui sera discuté au moment de l'examen de notre proposition de loi visant à instaurer une trajectoire de réduction de l'artificialisation concertée avec les élus locaux, c'est la mesure de l'artificialisation à partir des données « ENAF » sur une période de dix ans. Cette façon de mesurer devra évoluer avec la nouvelle définition de l'artificialisation. On a déjà un problème pour mesurer l'existant et il faudra un tuilage avec la nouvelle définition. Or l'IA n'est pas encore aboutie et il existe une compétition entre les organismes.

Le sujet de la gouvernance est également important. Les élus ne sont pas associés à cela, contrairement à ce que dit le Cerema. Nous pensons que la gouvernance est insuffisante.

La question se pose par ailleurs de savoir si la donnée du sol doit être publique ou si c'est une question de souveraineté. Le sol est tout aussi important que l'IA et il faut décider avec qui partager cette donnée.

Enfin, le dernier point soulevé par Christian Redon-Sarrazy concerne le sol vivant car, une fois que nous aurons réglé la question du ZAN, notamment grâce à l'IA, nous devrons traiter la question du sous-sol.

Comme nous l'avons constaté lors des auditions, les données disponibles sur le sous-sol sont insuffisantes, ne serait-ce que pour connaître sa valeur agronomique. Il est incroyable que nous soyons incapables, en 2025, de déterminer la valeur agronomique d'une terre. Un sous-sol possède-t-il une forte valeur agronomique, fertile, fertilisante et nourricière ? Nous sommes incapables de le dire.

Pour autant, les acteurs sont mobilisés et nous allons finir par y arriver. Concomitamment, nous allons également légiférer sur le sous-sol pour éviter de construire sur les terres à forte valeur et pour ne pas aggraver les zones inondables.

Au final, si nous parvenons à partager les données sur le sol et le sous-sol avec les élus locaux, nous les aiderons à prendre de meilleures décisions. Il faut cependant veiller à ce que ces données ne tombent pas entre de mauvaises mains, car qui détient le sol détient tout, y compris le sous-sol.

Mme Vanina Paoli-Gagin. - Je me permets d'ajouter une précision : c'est déjà le cas, car la majorité des engins agricoles sont américains. Ils comportent des systèmes de positionnement par satellite et des capteurs. Toutes les données transmises par les agriculteurs de France via leurs machines vont aux États-Unis. Les rendements et l'état de productivité de notre agriculture sont ainsi mieux connus par les Américains que par nous-mêmes.

Mme Christine Lavarde, présidente, rapporteure. - La connaissance du sol et du sous-sol est essentielle, notamment pour prévenir les catastrophes naturelles. Pour connaître son sol avec précision aujourd'hui, la meilleure solution est encore de procéder à un carottage pour déterminer la profondeur d'argile. Malheureusement, nous ne disposons pas encore de solutions d'IA fiables qui, par capillarité ou similarité, seraient capables de fournir des informations sûres sur la profondeur des fondations nécessaire pour construire sur un sol argileux.

Concernant le bilan énergétique de l'IA, au cours des auditions, l'Ademe n'a abordé que ce sujet alors que nous avons essayé de la faire parler d'autre chose comme par exemple des appels à projets en cours. Cela nous paraît dommage s'agissant d'une agence qui devrait s'intéresser à la façon dont l'IA peut améliorer la politique publique en matière de gestion des déchets et dans tout un tas d'autres domaines.

En réponse à Jean-Jacques Michau, nous prévoyons d'élaborer une synthèse qui fera le point sur les éléments communs à tous les rapports. Nous organiserons également une séance, si possible ouverte à tous les sénateurs, pour bénéficier d'une démonstration de technologies françaises d'IA dans des domaines variés.

La délégation adopte, à l'unanimité, le rapport et en autorise la publication.

LISTE DES PERSONNES ENTENDUES ET DES CONTRIBUTIONS ÉCRITES

AUDITION PUBLIQUE DE LA DÉLÉGATION À LA PROSPECTIVE

· Sébastien Soriano, directeur général de l'IGN, accompagné de Matthieu Porte, coordinateur des activités d'intelligence artificielle pour l'IGN (12 novembre 2024)

AUDITIONS DES RAPPORTEURS

· Gilles Babinet, coprésident du Conseil national du numérique, auteur de Green IA - L'intelligence artificielle au service du climat (avril 2024)

· Institut national de recherche en sciences et technologies du numérique (Inria)

Jacques Sainte-Marie, directeur du programme « Environnement et numérique »

Claire Monteleoni, titulaire de la chaire « Choose France AI » et directrice de recherche

Sandrine Mazetier, directrice générale déléguée à l'appui aux politiques publiques

· Centre d'études et d'expertise sur les risques, l'environnement, la mobilité et l'aménagement (Cerema)

Pascal Berteaud, directeur général

Pascal Terrasse, directeur général adjoint et directeur de la stratégie, de la communication et des relations extérieures

Catherine Maligne, directrice de cabinet

· Bureau de recherches géologiques et minières (BRGM)

Philippe Freyssinet, directeur de la recherche, de la programmation scientifique et de la communication

Michaël Chelle, directeur du programme scientifique « Données, infrastructures et services numériques »

· Agence de l'environnement et de la maîtrise de l'énergie (Ademe)

Raphaël Guastavi, directeur adjoint de la direction Économie circulaire

Thomas Brilland, ingénieur Sobriété numérique et IA

· Écolab du Commissariat général au développement durable (CGDD), ministère de la transition écologique, de l'énergie, du climat et de la prévention des risques

Amélie Coantic, directrice adjointe au commissaire général au développement durable

Thomas Cottinet, directeur

Juliette Fropier, cheffe de projet IA et transition écologique

CONTRIBUTIONS ÉCRITES

· Ifremer

· Météo-France


* 1 Cédric Villani, Donner un sens à l'intelligence artificielle. Pour une stratégie nationale et européenne, mars 2018, p. 124. Plus récemment, le rapport de la Commission de l'intelligence artificielle recommandait de « faire de la France un pionnier de l'IA pour la planète en renforçant la transparence environnementale, la recherche dans des modèles à faible impact, et l'utilisation de l'IA au service des transitions énergétique et environnementale » (recommandation n° 4 du rapport Favoriser les systèmes d'IA à faible impact sur l'environnement, p. 169). Au niveau mondial, la conférence de l'Organisation des Nations unies sur les changements climatiques de 2023 (COP 28) concluait à l'intérêt de mobiliser l'IA comme instrument de lutte contre le changement climatique, avec l'objectif d'innover pour soutenir des solutions alimentées par l'IA dans les pays en développement.

* 2 Selon une évaluation conjointe de l'Ademe et de l'Arcep, le numérique représente aujourd'hui 2,5 % des émissions de CO2 de la France. 78 % de l'empreinte carbone du numérique est émise durant la phase de fabrication des équipements.

* 3  Enjeux environnementaux de l'IA - Semaine IA Rennes 2024

* 4 Electric Power Research Institute, Powering Intelligence: Analyzing Artificial Intelligence and Data Center Energy Consumption, 28 mai 2024 : https://www.epri.com/research/products/3002028905

* 5 Conseil économique, social et environnemental, Intelligence artificielle et environnement : enjeux et perspectives, 2024 : https://www.lecese.fr/sites/default/files/pdf/Avis/2024/2024_14_IA_Environnement.pdf

* 6 Strubell, E., Ganesh, A., & McCallum, A., « Energy and Policy Considerations for Deep Learning in NLP ». In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics (ACL), 2019 : https://doi.org/10.48550/arXiv.1906.02243

* 7 ElecDom - Données de consommation annuelle, jeu de données de l'Ademe publié sur data.gouv.fr : https://www.data.gouv.fr/fr/datasets/elecdom-donnees-de-consommation-annuelle/

* 8 Pengfei Li, Jianyi Yang, Mohammad A. Islam, Shaolei Ren, Making AI Less « Thirsty »: Uncovering and Addressing the Secret Water Footprint of AI Models, Cornell University, 2023 : https://arxiv.org/pdf/2304.03271

* 9 Voir notamment la contribution de Thomas Le Goff, « Recommandations pour une action publique en faveur d'une IA générative respectueuse de l'environnement », 2023 : Recommandations pour une action publique en faveur d'une IA générative respectueuse de l'environnement - Archive ouverte HAL

* 10 OCDE, Recommandation du Conseil sur l'intelligence artificielle, 2019 : https://giurisprudenza.unimc.it/it/ricerca/dirittoapplicato/site-news/OECDLEGAL0449fr.pdf

* 11 Unesco, Recommandation sur l'éthique de l'intelligence artificielle, 2021 : https://unesdoc.unesco.org/ark:/48223/pf0000381137_fre

* 12 Commission européenne, Livre blanc sur l'intelligence artificielle - Une approche européenne axée sur l'excellence et la confiance, 2020 : https://eur-lex.europa.eu/legal-content/FR/TXT/PDF/?uri=CELEX:52020DC0065.

* 13 Loi n° 2022-299 du 2 mars 2022 visant à réduire l'empreinte environnementale du numérique en France.

* 14 Un simulateur comme « Ecologits Calculator », développé par GenAI Impact, permet quant à lui un usage plus raisonné des IA génératives d'un point de vue environnemental en permettant de comparer la consommation d'énergie de plusieurs grands modèles de langage lors de la phase d'inférence.

* 15 Loi n° 2021-1104 du 22 août 2021 portant lutte contre le dérèglement climatique et renforcement de la résilience face à ses effets.

* 16 Occupation du sol à grande échelle.

* 17 Institut national de l'information géographique et forestière.

* 18 Centre d'études et d'expertise sur les risques, l'environnement, la mobilité et l'aménagement.

* 19 Au cours de la phase d'initialisation, la première carte a coûté environ 20 millions d'euros, la mise à jour tous les trois ans représentant un budget de l'ordre de 5 millions d'euros.

* 20 Institut national de recherche en sciences et technologies du numérique.

* 21 Lauréat du challenge « IA-Biodiv » lancé par l'Agence nationale de la recherche (ANR) et l'Agence française de développement (AFD). Le projet a démarré en 2022 pour une durée de quatre ans.

* 22 Types d'algorithme de machine learning utilisés pour analyser des images. Ils se concentrent sur la détection de motifs et de caractéristiques visuelles à différents niveaux d'abstraction grâce à l'empilement de couches dites de convolution ou d'auto-attention.

* 23 Une nouvelle base de données alimentée par l'analyse d'échantillons provenant de 1 437 sites sur le globe a vocation à couvrir tous les milieux marins, de la côte au large, des eaux polaires aux mers tropicales et de quelques centimètres à plus de 6 000 mètres de profondeur. Cette banque de données et d'images haute résolution 3D devrait être librement accessible sur une plateforme virtuelle à compter de 2025. Les taxonomistes du monde entier pourront la consulter sans avoir à se déplacer.

* 24 Le rapport n° 724 du Sénat fait au nom de la mission d'information sur « L'exploration, la protection et l'exploitation des fonds marins : quelle stratégie pour la France ? » (21 juin 2022) souligne que seuls 5 % de la biodiversité de l'océan profond sont connus.

* 25 Soham Nandi, « How Can AI Help in Deep Sea Exploration and Mining ? », AZoAi, 17 juillet 2024 : https://www.azoai.com/article/How-Can-AI-Help-in-Deep-Sea-Exploration-and-Mining.aspx

* 26 Dans ses recommandations, le rapport n° 724 précité appelait de ses voeux la poursuite des travaux de recherche dans ce domaine et le conditionnement de « toute ouverture de l'exploitation minière à un débat parlementaire transparent ayant préalablement associé les collectivités d'outre-mer ainsi qu'à une clarification juridique en introduisant notamment des normes environnementales propres aux grands fonds marins » : https://www.senat.fr/rap/r21-724/r21-7241.pdf

* 27 Le projet « Interreg POCTEFA AI4FLOOD » (adaptation et amélioration de la prévention des inondations au niveau municipal par l'intégration de l'intelligence artificielle et de la participation citoyenne) associe des partenaires français et espagnols. Cofinancé par la Commission européenne, il a débuté en 2024 pour une durée de trois ans : https://ai4flood.com/

* 28 En ce qui concerne spécifiquement les prévisions relatives aux précipitations, le recours à l'IA et aux réseaux de neurones convolutifs est utile dans les cas où il est fait appel aux données issues des observations satellitaires plutôt que celles fournies par les radars qui font habituellement référence. Cela concerne par exemple les zones du territoire français (Mayotte, Polynésie française) non couvertes par les radars ou les situations dans lesquelles il convient d'anticiper des phénomènes au large de l'Atlantique. Dans ces cas, pour compenser la portée réduite des radars, les prévisionnistes utilisent l'outil « Espresso » qui permet d'estimer les précipitations à partir d'images satellite et d'identifier grâce à l'IA, mieux que ne le font les méthodes physiques, les relations non linéaires entre ces précipitations et d'autres données.

* 29 Une première étape nécessaire à l'élaboration d'un modèle d'émulation par IA de la prévision numérique du temps a été permise par la génération en 2024 d'une base d'apprentissage à 2,5 km de résolution spatiale.

* 30 Contribution de Météo-France en réponse au questionnaire des rapporteurs.

* 31 « AI Research for Climate Change and Environmental Sustainability ». Initiative de recherche lancée par l'Inria en partenariat avec des institutions comme l'Université Sorbonne, l'UVSQ et le CNRS, et dirigée par Claire Monteleoni, spécialiste de l'informatique climatique.

* 32 George Miloshevich, Bastien Cozian, Patrice Abry, Pierre Borgnat, et Freddy Bouchet, « Probabilistic forecasts of extreme heatwaves using convolutional neural networks in a regime of lack of data », Physical Review Fluids, 2023 : https://hal.science/hal-03741938v2/file/main.pdf

* 33 D. Gelernter, Mirror worlds : Or the day software puts the universe in a shoebox... How it will happen and what it will mean, Oxford University Press, 1993. Le prologue de cet ouvrage débute ainsi : « Ce livre décrit un évènement qui arrivera un jour prochain : vous regarderez l'écran d'un ordinateur et y verrez la réalité. » (traduit de l'anglais)

* 34 M. Grives et J. Vickers, « Digital twin : Mitigating unpredictable, undesirable emergent behaviour in complex systems », Transdisciplinary perspectives on complex systems, 2017. Michael Grieves indique avoir lui-même emprunté le terme de jumeau numérique à John Vickers de la NASA.

* 35 Chaire « Jumeaux numériques de la construction et des infrastructures dans leur environnement ».

* 36 Des données géologiques et géophysiques sont disponibles sur ce site pour lequel un jumeau numérique a déjà été initié. Ce dernier constitue le support numérique pour réaliser des prédictions de mouvements du sol générés par des séismes localisés sur les systèmes de faille environnants. De Martin, F., Almohamad, D., et Antoinet, E. (2022), Jumeau numérique sismique du barrage de Dumanoir (Guadeloupe) - Modèle en éléments finis spectraux. Rapport final . RP-71343-FR.

* 37 Comme celui de Teil en Ardèche, qui se situe à proximité de centrales nucléaires, ou celui de la vallée de Grenoble. Les résultats pourraient être ouverts au public à travers une communication sur le portail Géorisques.

* 38 Les référentiels géographiques de l'IGN seront mobilisés et évolueront au gré du projet afin d'y intégrer les informations les plus récentes, les plus précises et les mieux sémantisées possible, y compris quand il ne s'agit de pas de données ne relevant pas habituellement de cet opérateur (données socio-démographiques de l'Insee, données météorologiques ou encore données relatives à la mobilité par exemple). Ce socle commun de données sera accessible via une plateforme dédiée fournissant également accès à des ressources de calcul nécessaires pour exécuter les modèles de simulation.

* 39 « Destination Earth » (DestinE).

* 40 L'objectif est de pouvoir produire des projections à diverses échéances, jusqu'à plusieurs décennies, sur de multiples variables (température, précipitations, vagues de chaleur, évènements climatiques extrêmes) et d'accompagner la prise de décision. L'outil est conçu pour analyser, simuler et prévoir les effets du changement climatique avec une résolution très fine, à des échelles de quelques kilomètres (1 à 2 kilomètres), dépassant les capacités des modèles climatiques globaux traditionnels (10 à 100 kilomètres). Ceci permet d'analyser des phénomènes à des petites échelles comme les impacts locaux des vagues de chaleur ou des tempêtes. La fréquence de mise à jour des cycles de projections climatiques sera considérablement réduite, en passant de 7 à 10 ans actuellement à une mise à jour annuelle ou infra-annuelle à l'avenir.

* 41  https://minnd2050.fr/index.php/groupes-de-travail/gt-3-jumeaux-numeriques-de-territoires/

* 42 Expression de Frédéric Kaplan, professeur et directeur du collège d'humanités digitales de l'École polytechnique fédérale de Lausanne : https://actu.epfl.ch/news/cette-technologie-permet-de-simuler-ce-qui-se-pass/

* 43  https://www.assolia.com/

* 44 Le projet dit « Game of Trawls » (« Giving Artificial Monitoring Intelligence to Fishing Traxwls ») porté depuis 2019 par l'Ifremer en partenariat avec l'équipe de recherche OBELIX (IRISA/UBS), Marport et le CDPMEM56 (Pêche départementale et maritime du Morbihan) se fonde sur le traitement d'images complexes à des fins environnementales.

* 45 Sur ce point, voir en particulier le rapport IA et territoires de Mme Amel Gacquerre et M. Jean-Jacques Michau, rapporteurs au nom de la délégation à la prospective du Sénat, adopté le 13 février 2025.

* 46 Lauréate du troisième concours d'innovation Octo'pousse de l'Ifremer (250 000 euros sur 18 mois).

* 47 IGN, Cartographier l'anthropocène à l'ère de l'intelligence artificielle, atlas 2024, p. 68 : https://www.calameo.com/read/0011885824d49acbe5730?page=1

* 48 Cet atlas cartographique de scénarios de submersion marine concerne les 10 communes littorales du bassin pour un ensemble de conditions météo-marines fictives mais inspirées de la réalité. Des scénarios ont été construits à partir d'une analyse statistique des conditions de forçage (vent, vagues, etc.) et des techniques de modélisation numérique. Ils représentent une large palette d'évènements possibles, d'intensité et de fréquence variables. Un algorithme de machine learning non supervisé a été utilisé pour sélectionner 50 conditions de tempêtes permettant de représenter une diversité de combinaisons possibles. Le modèle a été validé sur 4 tempêtes historiques : Klaus (2009), Xynthia (2010), Emma (2018) et Justine (2020). Au-delà de son utilité pour définir des plans d'action pour la gestion de crise, la constitution de la base de données offre des perspectives d'utilisation complémentaires, par exemple dans le cadre du projet ANR ORACLES visant à développer des modèles d'IA capables de produire des prévisions d'ensemble en temps quasi réel : https://brgm.hal.science/hal-04527015v1/file/Outil%20d%20aide%20%20%20la%20gestion%20de%20crise%20pour%20la%20mission%20RDI33%20%20%20Atlas%20de%20scenarios%20de%20submersion%20sur%20le%20bassin%20d%20Arcachon.pdf

* 49 Règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024 établissant des règles harmonisées concernant l'intelligence artificielle, entré en vigueur le 1er août 2024 selon un calendrier échelonné.

* 50 Cette feuille de route thématique est coordonnée avec la feuille de route plus large « de la donnée, des algorithmes et des codes sources » (DAC).

* 51 Débuté fin 2024 pour une durée de cinq ans, l'actualisation de l'Inventaire national des ressources minérales du sous-sol français (IRM) vise à identifier les zones susceptibles d'abriter des ressources minérales d'intérêt dans un objectif de réduction de la dépendance vis-à-vis des importations de matières premières et secondaires. Le projet est soutenu par l'ANR dans le cadre de France 2030. Il permettra une mise à jour approfondie de l'inventaire qui fait actuellement référence et qui a été réalisé entre 1970 et 1995. La qualité des résultats devrait être optimisée par l'utilisation de technologies de pointe, parmi lesquelles l'IA.

* 52 Les réseaux antagonistes génératifs ou GAN sont des algorithmes d'apprentissage non supervisé à base de réseaux de neurones artificiels, qui permettent de modéliser et d'imiter n'importe quelle distribution de données. Ils peuvent être utilisés dans différents domaines (traitement d'images, de texte, de sons). Les GANs sont des modèles dits génératifs qui diffèrent des techniques traditionnelles d'analyse de données comme la classification. Alors que cette technique vise à apprendre à discriminer les données issues de différentes classes en fonction de leurs descripteurs, les algorithmes génératifs visent à faire le contraire : étant donnée une classe, les GANs cherchent à générer des données qui lui seraient associées. Concrètement, l'architecture d'un GAN est composée de deux réseaux de neurones, mis en compétition. Le premier, appelé générateur, crée un échantillon de données. Le deuxième réseau, appelé discriminateur, tente de détecter si cet échantillon est originel ou s'il s'agit d'une création de son « adversaire », le générateur.

* 53 Retrieval augmented generation ou génération augmentée par récupération.

* 54  https://www.innoverpourlatransitionecologique.fr/fr/challenges/dis-ademe?lang=fr

* 55 Licence ouverte Etalab v2.

* 56 Voir notamment les classements réalisés dans le cadre de l'« Open Data Maturity Report » (2023) à l'échelle européenne et de l'OCDE (« OURdataIndex ») à l'échelle mondiale.

* 57 Article 1er de la loi n° 2016-1321 du 7 octobre 2016 pour une République numérique. Directive 2019/1024 du Parlement européen et du Conseil du 20 juin 2019 concernant les données ouvertes et la réutilisation des informations du secteur public.

* 58  www.data.gouv.fr

* 59 Directive 90/313/CEE du 7 juin 1990 concernant la liberté d'accès à l'information en matière d'environnement, transposée en 2001. La directive 2003/4/CE du Parlement européen et du Conseil du 28 janvier 2003 concernant l'accès du public à l'information en matière d'environnement, transposée en droit en français en 2005, vise à garantir le droit d'accès aux informations environnementales détenues par les autorités publiques ou pour leur compte et à favoriser la mise à disposition d'office des informations environnementales afin de parvenir à une diffusion systématique aussi large que possible auprès du public. Voir aussi la Convention sur l'accès à l'information, la participation du public au processus décisionnel et l'accès à la justice en matière d'environnement (convention d'Aarhus) entrée en vigueur le 30 octobre 2001, et, au plan constitutionnel, la Charte de l'environnement de 2005.

* 60 Avis du Conseil national du numérique, Faire des données environnementales des données d'intérêt général, juillet 2020.

* 61 Porté par l'École Centrale de Lyon et coanimé avec l'IFPEN (IFP Énergies nouvelles), ce consortium réunit des partenaires académiques et des structures de recherche technologique. Son objectif est de faire avancer la réflexion sur la résolution des problèmes liés à l'utilisation de simulateurs numériques. Les difficultés sont liées à la question de la transposition des codes, c'est-à-dire la question de savoir comment passer à une grande échelle lorsque des simulations ne sont possibles qu'à une petite échelle ou encore à la façon de prendre en compte les incertitudes qui affectent le résultat des simulations. Les travaux du consortium entendent se concentrer sur la simulation numérique tout en tenant compte des développements du machine learning.

* 62 Par exemple, l'OGC (Open Geospatial Consortium) est un consortium international pour développer et promouvoir des standards ouverts, afin de garantir la normalisation et l'interopérabilité des contenus dans les domaines de la géomatique et de l'information géographique.

* 63 Loi n° 2016-1321 du 7 octobre 2016 pour une République numérique.

* 64 Appel à projets générique 2020.

* 65 SURICATE-Nat, qui assure en continu la collecte et l'analyse des tweets liés aux phénomènes de séisme et d'inondation.

* 66 Laurent Cytermann, « Le partage des données, un enjeu d'intérêt général à l'ère de l'intelligence artificielle », Revue des affaires européennes, n° 1, 2018.

* 67 Avis du Conseil national du numérique, Faire des données environnementales des données d'intérêt général, juillet 2020.

* 68 Atelier de la Communauté Écolab, Service Recherche et Innovation, CGDD, L'intelligence artificielle au service de la gestion de l'eau et de l'adaptation au changement climatique, avril 2024.

* 69 Contribution de Météo-France dans le cadre des réponses au questionnaire des rapporteurs.

* 70 Données ERA5. Il s'agit d'un ensemble de données prêt pour l'analyse et optimisé pour le cloud. Elles fournissent des estimations horaires sur un grand nombre de variables climatiques concernant l'atmosphère, les sols et l'océan pour la Terre entière. Ces données sont utilisées à des fins de réanalyse, c'est-à-dire pour la représentation la plus complète possible des conditions météorologiques et climatiques passées. Cette représentation est réalisée en assimilant de nombreuses sources de données dans le cadre d'un modèle de prévision numérique du temps.

* 71 Laure Raynaud, « L'intelligence artificielle pour la prévision du temps », Encyclopédie de l'environnement, 17 juin 2024 : https://www.encyclopedie-environnement.org/air/intelligence-artificielle-prevision-temps/

* 72 Ibid.

* 73 Météo-France souligne que ces démonstrateurs ne permettent en l'état qu'une représentation très partielle de l'atmosphère. Le nombre de variables est peu élevé et la résolution spatiale perfectible.

* 74 GraphCast fonctionne avec un algorithme entraîné sur un immense jeu de données afin d'anticiper l'évolution de l'état de l'atmosphère toutes les 6 heures sur 10 jours. GenCast utilise un algorithme proche de ceux utilisés pour la génération d'images, entraînés sur les données de l'ECMWF.

* 75 Voir la partie consacrée à l'IGN dans le rapport général n° 144 (2024-2025) de la commission des finances du 21 novembre 2024, dans le cadre du programme 159 « Expertise, information géographique et météorologie » de la mission budgétaire « Écologie, développement et mobilité durables » (tome III, annexe 11, volume 3). Le rapporteur spécial, M. Vincent Capo-Canellas, souligne l'existence d'un déficit structurel de 15 millions d'euros par an des missions de base de l'établissement, qui ont vocation à être couvertes par la subvention pour charges de service public. https://www.senat.fr/rap/l24-144-311-3/l24-144-311-31.pdf

* 76 Rapport d'information n° 17 (2022-2023) de M. Vincent Capo-Canellas, fait au nom de la commission des finances (2022).

* 77 ChatGPT, et après ? Bilan et perspectives de l'intelligence artificielle, 28 novembre 2024. Rapport d'Alexandre Sabatou, Patrick Chaize et Corinne Narassiguin au nom de l'OPECST.

* 78 Commission de l'intelligence artificielle, IA : notre ambition pour la France, mars 2024.

Les thèmes associés à ce dossier

Partager cette page