LISTE DES RECOMMANDATIONS
N° de la recommandation |
Recommandations |
Acteurs concernés |
Calendrier prévisionnel |
Support / action |
1 |
Développer les offres de sensibilisation puis de formation à l'IA à l'attention des élus et des agents des collectivités |
Associations d'élus locaux, Centre national de la fonction publique territoriale (CNFPT), Centres de gestion (CDG) |
3 ans |
Action administrative |
2 |
Impliquer le citoyen dans l'introduction de l'IA au sein des services publics locaux afin de s'assurer de l'acceptation citoyenne et de se prémunir contre un risque de déshumanisation des services. |
Collectivités territoriales |
3 ans |
Action administrative |
3 |
Dans les collectivités ayant la taille critique suffisante, mettre en place un management des données par un administrateur général des données (« Chief Data Officer »), un réseau de référents data, un Comité data ou une Direction de la donnée. |
Collectivités territoriales |
3 ans |
Action administrative |
4 |
Expérimenter des Comités territoriaux de la donnée pour faciliter le partage de données à des fins d'intérêt général et favoriser les échanges d'expérience. |
Ministère de l'Intérieur (direction du
management de l'administration territoriale et de l'encadrement
supérieur - DMATES), |
1 an |
Circulaire |
5 |
Structurer le développement des projets IA autour de collectivités « cheffes de file », capables de construire une expertise et de monter des projets proportionnés aux besoins des territoires. |
Collectivités territoriales |
5 ans |
Action administrative |
6 |
Confier aux Comités territoriaux de la donnée la mission d'animer le réseau des acteurs territoriaux de l'ingénierie IA (collectivités territoriales, acteurs institutionnels clés et partenaires privés) en vue de la démocratisation de l'IA parmi les collectivités. |
Premier ministre, Collectivités territoriales |
1 an |
Circulaire |
7 |
Dans l'attribution d'un marché public portant sur un outil IA, prendre en compte le bilan environnemental de cette IA. |
Ministère de la Transition écologique et de la Cohésion des territoires (Ecolab), collectivités territoriales |
3 ans |
Action administrative |
8 |
Créer une « bibliothèque nationale des projets IA développés par les collectivités » sous la forme d'une plateforme numérique. Les informations partagées dans cette bibliothèque porteraient par exemple sur l'impact environnemental du projet considéré. |
Ministère de la Transition écologique et de la Cohésion des territoires (Ecolab), collectivités territoriales |
3 ans |
Action administrative |
9 |
Sensibiliser et former les élus locaux et les cadres administratifs des collectivités au droit de la conformité, car dans le cadre d'un projet IA « il ne s'agit pas seulement de signer un contrat avec un sous-traitant, il faut s'assurer que celui-ci est aussi en conformité ». |
Associations d'élus locaux, CNFPT, CDG |
3 ans |
Action administrative |
10 |
Fixer à trois ans le délai de mise en conformité des collectivités territoriales concernées par la directive « NIS 2 ». |
Ministère de l'Intérieur (direction générale des collectivités locales) |
1 an |
Loi |
11 |
Établir une charte éthique de l'IA dans les collectivités territoriales (sur la base du volontariat) pour fournir un cadre de confiance au développement de leurs projets IA. |
Collectivités territoriales |
5 ans |
Action administrative |
I. LES CHAMPS D'APPLICATION DE L'IA DANS L'UNIVERS DES COLLECTIVITÉS TERRITORIALES
A. QU'EST-CE QUE L'IA ?
1. Démystifier ce nouvel outil
Il faut le reconnaître, aujourd'hui l'IA fait encore souvent peur. La faute en incombe principalement à une ignorance, ou méconnaissance, de la nature réelle de ce nouvel outil. Avant même de s'interroger sur les enjeux de l'IA pour nos collectivités territoriales, il est donc indispensable de démystifier cette technologie et d'en faire la pédagogie. Il est d'ailleurs remarquable que cette priorité ait été partagée par la plupart des interlocuteurs entendus par vos rapporteures au cours de leur mission d'information. Pour être utilisée à bon escient, l'IA doit d'abord être bien comprise.
En 1956, le mathématicien et informaticien John McCarthy propose une première formalisation du concept auquel renvoie l'IA : « tout aspect de l'apprentissage, et de n'importe quelle caractéristique de l'intelligence, peut être si précisément décrit qu'en principe, une machine devrait pouvoir être fabriquée pour simuler l'intelligence ». Ainsi dès ses origines, l'IA est appréhendée comme une machine fabriquée par l'Homme pour simuler l'intelligence humaine.
De façon schématique, l'IA est une machine programmée pour arriver en quelques instants à une conclusion à laquelle aurait abouti un être humain en faisant appel à sa logique, au temps et à la raison. Cette machine peut apprendre, raisonner et résoudre des problèmes.
Parmi les premiers travaux à l'origine de cette approche, la modélisation des synapses et des neurones par le neurophysiologiste, Warren McCulloch, et le logicien, Walter Pitts, constitue une étape fondatrice1(*). L'IA s'inspire du vivant en ce que son fonctionnement reproduit celui des réseaux de neurones.
Pour y parvenir avec des résultats satisfaisants, trois éléments moteurs doivent être réunis : des données (la fameuse « data » dans le jargon des experts), une capacité de calcul exceptionnelle et un algorithme. En effet, l'IA repose sur un principe de calcul de probabilités et de rapprochement de données entre elles. Pour que la probabilité de succès soit la plus élevée possible et le rapprochement le plus pertinent parmi ceux envisageables, le volume de data passées en revue a intérêt à être le plus important possible. Raison pour laquelle l'IA s'appuie sur des bases contenant fréquemment des millions de données. C'est là que la capacité de calcul entre bien évidemment en ligne de compte, puisque l'examen de volumes aussi conséquents de données mobilise une puissance de calcul considérable. L'exigence d'un délai de réponse aussi bref que possible ne fait que renforcer la nécessité de recourir à une puissance de calcul exceptionnelle. Le lien entre la data et la puissance de calcul est réalisé au travers d'un algorithme, c'est-à-dire une formule de calcul conçue pour parvenir à résoudre un problème. Dans certains cas d'IA, cet algorithme est « auto-apprenant », autrement dit il est conçu de sorte que son comportement évolue dans le temps en fonction des données fournies. Les spécialistes décrivent cette faculté sous le terme d'« apprentissage machine » (apprentissage automatique ou machine learning en anglais).
Dans ce processus, la qualité de la data conditionne la capacité de l'IA à produire une réponse pertinente à la question qui lui est posée. L'IA n'invente rien ex nihilo, elle se contente d'élaborer une réponse à partir de la base de données qu'elle a à sa disposition. Pour progresser dans la qualité de la réponse, l'IA peut être « entrainée », c'est-à-dire qu'on enrichit sa base par des data supplémentaires.
Dans la mesure où l'IA se fonde sur le calcul de probabilités et qu'elle dépend de la qualité de la data fournie, on comprend que la réponse qu'elle apporte n'est pas dépourvue de risque d'erreur. Les spécialistes vont même jusqu'à parler d'« hallucination » de l'IA. Ce phénomène d'hallucination renvoie à une réponse fausse ou trompeuse, mais présentée comme un fait certain. Il peut, entre autres, tenir à des données erronées, ou comportant un biais (préjugé, présentation fallacieuse, défaut d'actualisation...). Dans ce dernier cas, les experts parlent d'ailleurs de « biais cognitifs ». On voit donc, au travers de ce risque, combien la qualité de la data utilisée joue un rôle majeur dans la confiance pouvant être accordée à l'outil IA.
Contrairement à une préconçue idée qui pourrait facilement se diffuser dans le grand public à l'avenir, la réponse apportée par l'IA ne peut donc être tenue pour 100 % certaine. En d'autres termes, cela signifie que l'intervention et le contrôle humains demeurent une condition essentielle pour un déploiement serein de l'IA2(*). A contrario, le danger serait de se fier sans réserve à l'IA et de laisser l'esprit critique humain dépérir à mesure que la confiance absolue en l'IA gagnerait du terrain. Dans son rapport « Service public : l'intelligence humaine aux commandes de l'IA », le cercle des acteurs territoriaux rejoint cette analyse et l'illustre du commentaire du philosophe Thierry Ménissier : « le problème n'est pas tant la technologie que la société qui l'utilise (...). Le sens critique et moral des usagers peut se trouver désamorcé par le recours à un artifice machinique, tandis que la réflexion et la décision impliquent toujours une part de risques dans la prise de position... épreuves dont on comprend bien qu'il soit tentant de s'y dérober. En ce sens, l'usage trop fréquent des modèles de langage recouvre le risque d'un conformisme généralisé, synonyme de manque de courage. Les époques qui ont vécu ce genre d'ambiance ne sont connues ni pour leur tolérance démocratique, ni pour leur respect humaniste ! ».
Une autre préoccupation majeure en matière d'IA réside dans le contenu de l'algorithme, souvent perçu comme une « boîte noire ». Or, la confiance en l'IA ne pourra durablement s'installer que dans la transparence de cette formule de calcul, qui ne doit pas « réserver de mauvaises surprises ». Cette remarque est loin d'être négligeable, d'autant qu'elle suppose une expertise particulière pour parvenir à comprendre et vérifier un algorithme3(*).
Au final, on ne peut que regretter le vocable retenu pour désigner cette nouvelle technologie. Le terme IA introduit un malentendu entre l'homme et la machine, en laissant entendre qu'une machine pourrait s'apparenter à quelque chose d'humain, voire demain supplanter l'être humain. Or, il faut bien l'avoir à l'esprit, l'IA est et demeurera une machine, soumise au contrôle humain pour s'assurer de la pertinence et de l'exactitude des réponses apportées par l'algorithme.
2. Les deux familles d'IA : IA prédictive versus IA générative
Le terme générique d'IA recouvre, à ce stade, deux grandes familles d'outils : les IA prédictives et les IA génératives.
L'IA prédictive utilise l'apprentissage automatique pour extrapoler l'avenir. Elle est centrée sur l'analyse des données et la réalisation de prévisions futures à partir de données historiques et actuelles.
Des exemples d'application de l'IA prédictive · Les diagnostics médicaux : l'IA prédictive trouve un terrain privilégié d'application dans le domaine de la santé. Elle contribue à la prévention d'épidémies et à l'identification de patients à risque. Par ailleurs, elle est de plus en plus utilisée dans le diagnostic des maladies et pour améliorer le pronostic et les programmes de soin des patients. L'IA établit un diagnostic en recherchant des patients de même profil (même âge et poids, par exemple) présentant des symptômes et des affections sous-jacentes similaires. Elle peut également utiliser des banques d'images pour aider au diagnostic de certaines maladies ; · La détection de la fraude : en analysant les modèles et les tendances, l'IA prédictive peut identifier plus tôt les activités potentiellement frauduleuses. Par exemple, en signalant l'utilisation d'un appareil non connu ou un accès depuis un nouvel emplacement ; · Les prévisions financières : les modèles d'IA prédictive s'appuient sur des données financières historiques pour prédire les tendances des marchés boursiers, les risques et les opportunités d'investissement. L'IA prédictive vise alors à améliorer la précision des prévisions et la prise de décision financière ; · L'analyse du comportement d'un client : l'IA prédictive peut utiliser les données client (l'historique d'achat) et les modèles de comportement d'achat pour prédire de futurs achats. Ainsi, les entreprises sont-elles en capacité de mieux gérer leurs stocks et leurs opérations de chaîne logistique (prévisions de la demande). Source : d'après Colin Redbond, Head of Technology Strategy and Architecture, Blue Prism (blog, octobre 2013) |
L'IA générative crée du contenu en s'appuyant sur des données et des informations acquises à partir d'autres contenus existants. Les créations peuvent prendre la forme de textes, d'images, de musiques ou encore de vidéos. Leur qualité varie selon l'algorithme employé, elle peut être très élevée au point qu'il est au final difficile de savoir si le contenu a été produit par des personnes ou une machine. Pour solliciter cette forme d'IA, l'utilisateur formule une instruction en langage naturel, appelée le « prompt ».
L'irruption à la fin de l'année 2022 de ChatGPT (Chat Generative Pre-Trained Transformer4(*)), lancé par la société OpenAI, a mis en lumière et popularisé les potentialités de l'IA générative. Facile d'utilisation, son interface a donné accès à cette technologie à de très nombreuses personnes, qui ne disposaient pas de compétences spécifiques en informatique. Au début de l'année 2024, ChatGPT revendiquait 180 millions d'utilisateurs actifs mensuels et 1,8 milliard de visites5(*).
L'IA générative tend à rapidement gagner du terrain dans le monde de l'entreprise. Elle y est utilisée, par exemple, pour générer des contenus marketing, rédiger des mails, élaborer des rapports analytiques ou faciliter la prise de décision basée sur des données. Des secteurs d'activité tels que l'enseignement, par exemple, sont également impactés par cette capacité nouvelle à créer du contenu. Dans leur vie quotidienne même, les utilisateurs mettent à profit ces nouvelles applications pour la planification d'itinéraires de voyage, la résolution de problèmes quotidiens ou l'aide à la rédaction de documents.
* 1 « A logical calculus of the ideas immanent in nervous activity » (Bulletin of Mathematical Biophysics, 1943).
* 2 Cette surveillance humaine est d'ailleurs explicitement mentionnée dans la règlementation européenne dite « IA Act » (article 14) sur laquelle vos rapporteures reviendront plus en détail dans la Partie II. E. 1.
* 3 Sur la transparence des algorithmes, vos rapporteures renvoient par exemple à l'article « Algorithmes publics, transparence et démocratie » de Sylvie Thoron, professeure d'économie, spécialisée en théorie des jeux et en philosophie économique, à l'Université Paris-Est Créteil Val-de-Marne (UPEC) : https://theconversation.com/algorithmes-publics-transparence-et-democratie-98221
* 4 Transformateur pré-entraîné génératif de chat.
* 5 Sources : Rapport We Are Social/Meltwater/ Reuters/SimilarWeb ( 1) ( 2)/ Google/ Semrush/ Appfigures