EXAMEN DU RAPPORT PAR L'OFFICE
L'Office parlementaire d'évaluation des choix scientifiques et technologiques s'est réuni le jeudi 28 novembre 2024 afin d'examiner le projet de rapport sur les nouveaux développements de l'intelligence artificielle, présenté par M. Alexandre Sabatou, député, M. Patrick Chaize, sénateur, et Mme Corinne Narassiguin, sénatrice, rapporteurs.
M. Stéphane Piednoir, sénateur, président de l'Office. - Nous avons à notre ordre du jour ce matin l'examen du rapport sur les nouveaux développements de l'intelligence artificielle (IA). Ce rapport est important pour plusieurs raisons. Tout d'abord, parce qu'il résulte d'une saisine concomitante des bureaux de l'Assemblée nationale et du Sénat, procédure rare qui s'inscrivait dans le cadre du 40e anniversaire de l'Office parlementaire d'évaluation des choix scientifiques et technologiques (OPECST) célébré en juillet 2023. L'initiative en revient à la présidente de l'Assemblée nationale, Mme Yaël Braun-Pivet, et au président du Sénat, M. Gérard Larcher. Ensuite, le rapport qui va nous être présenté vise à prolonger le travail initié par un premier rapport de l'Office datant de 2017, car l'intelligence artificielle est un sujet en perpétuelle évolution. L'année dernière, l'Office a désigné quatre co-rapporteurs : deux députés et deux sénateurs, deux femmes et deux hommes représentant quatre tendances politiques différentes et assurant ainsi la représentativité de nos deux assemblées. Trois des quatre rapporteurs sont ici présents : les sénateurs Patrick Chaize et Corinne Narassiguin et le député Alexandre Sabatou. Huguette Tiegna faisait partie de cette équipe, mais elle n'a pas été réélue en juillet 2024. En conséquence, elle ne peut pas présenter le rapport, ni le signer, puisque seuls des parlementaires en exercice y sont autorisés. Toutefois, je tiens à la remercier pour son implication.
L'intelligence artificielle est un sujet d'actualité majeur sur lequel l'Office a déjà travaillé en adoptant un premier rapport en 2017. Cédric Villani, président de l'Office, s'était ensuite vu confier par le Gouvernement, en 2018, une mission sur le sujet.
Avant de vous céder la parole, j'aimerais rappeler que la mission de l'OPECST est d'éclairer le débat parlementaire, comme la loi le lui demande. Les travaux et rapports de l'Office doivent aboutir au consensus scientifique le plus large possible. Je tiens à dire solennellement que l'Office n'est pas le lieu de prises de positions politiciennes. Laissons cela aux débats en commission ou dans nos hémicycles respectifs. Il est important que l'Office poursuive un travail d'objectivation des données scientifiques.
Je précise également que le document qui vous a été remis ne doit pas être diffusé avant son adoption formelle par l'Office.
M. Pierre Henriet, député, premier vice-président de l'Office. - L'Office est parfaitement en phase avec son ADN pour ce travail sur les perspectives de l'intelligence artificielle. En effet, cette étude complète d'un domaine technologique et scientifique s'inscrit sur le temps long. Il faut faire le lien avec le rapport Villani de 2018 et constater qu'en six ans, une nouvelle révolution technologique a eu lieu et qu'il est possible qu'une nouvelle se prépare au cours des six prochaines années. Il est important de garder un esprit critique et de faire preuve de recul sur le sujet de l'intelligence artificielle, sans tomber dans le fanatisme technologique et en y apportant une dimension politique. Ce rapport intègre ainsi une dimension éthique indispensable au moment où cette technologie se développe sans que l'on en maîtrise les tenants et les aboutissants. Nous devons aux citoyens un éclairage permanent. Au-delà de la présentation du rapport, je souhaiterais entendre vos ressentis lors de vos échanges avec les différents acteurs rencontrés. J'aimerais également que l'on puisse évoquer les suites à donner à ce rapport.
M. Patrick Chaize, sénateur, rapporteur. - J'ai le plaisir de vous présenter ce matin avec mes deux collègues notre rapport intitulé « ChatGPT, et après ? Bilan et perspectives de l'intelligence artificielle ». Ce rapport est une commande exceptionnelle puisqu'il résulte d'une saisine de l'Office par les Bureaux de l'Assemblée nationale et du Sénat en juillet 2023, comme vous le rappeliez. Nous avons commencé à quatre avec notre ancienne collègue députée Huguette Tiegna, non réélue en juillet 2024, à la suite de la dissolution de l'Assemblée nationale. Nous avons effectué différents déplacements et de nombreuses auditions dont vous trouverez la liste en annexe du rapport. Notre saisine portait sur les nouveaux développements de l'IA et nous y avons répondu dans un travail en trois parties : les aspects technologiques que je vais vous présenter, puis les enjeux politiques, économiques, sociétaux, culturels et scientifiques qui vous seront présentés par Corinne Narassiguin. Enfin, Alexandre Sabatou abordera les questions de gouvernance et de régulation. Mon exposé contient cinq points.
1. Tout d'abord, l'histoire de l'intelligence artificielle.
Vous trouverez dans le rapport une histoire et même une préhistoire de l'intelligence artificielle, ainsi qu'un rappel de sa présence forte dans la science-fiction. Toutes ces représentations culturelles peuvent influer sur la technologie et sa perception sociale. La citation de Georges Bernanos de 1946 extraite de son livre La France et les robots, placée en ouverture du rapport, relève que l'évolution de nos sociétés est de plus en plus liée aux machines : « Le progrès n'est plus dans l'homme, il est dans la technique ». Plutôt que d'en avoir peur, nous pensons qu'il faut comprendre l'intelligence artificielle. Une deuxième citation empruntée à Marie Curie complète notre approche : « Rien n'est à craindre, tout est à comprendre ». Nous la suivrons dans son raisonnement.
Après le rapport pionnier de l'Office de mars 2017 qui fait suite à des travaux menés tout au long de l'année 2016, nous avons voulu prolonger ces investigations par une analyse rationnelle de l'intelligence artificielle. L'IA suscite à la fois des espoirs parfois excessifs et des craintes pas toujours justifiées. Le premier enseignement de notre rapport est le suivant : l'IA n'est pas nouvelle, elle est liée à la naissance de l'informatique. Il s'agit d'ailleurs, dans le domaine de l'informatique, d'une sorte d'informatique avancée dont la frontière bouge avec le temps. Sa naissance officielle a lieu en 1956 lors d'une école d'été du Dartmouth College. John McCarthy y introduit le concept d'intelligence artificielle, la définissant comme « une science visant à simuler les fonctions cognitives humaines ». Marvin Minsky parle alors de « la construction de programmes capables d'accomplir des tâches relevant habituellement de l'intelligence humaine ». Cette conférence marque le point de départ de l'IA en tant que discipline. Depuis, l'IA a connu des périodes de grand espoir, comme lors des premières découvertes des années 1960 ou des systèmes experts et de l'IA symbolique, chacune de ces périodes étant suivie de phases de désillusions, les « hivers de l'IA ». Deux grandes approches se détachent : l'IA symbolique, caractérisée par l'utilisation de règles logiques pour résoudre des problèmes au terme de déductions, et l'IA connexionniste, qui se base exclusivement sur de l'induction avec une analyse probabiliste de données. On peut parler à ce sujet de « super statistiques ».
2. Les progrès de l'apprentissage profond dans les années 2010 et l'architecture Transformer.
Un nouvel essor de l'IA a lieu depuis les années 2010 grâce aux progrès de l'apprentissage profond (Deep Learning). On parle d'apprentissage profond, car les algorithmes reposent sur des réseaux de neurones artificiels composés de couches multiples. Attention, ce ne sont pas des neurones de synthèse, ce sont des calculs mathématiques, chaque neurone correspondant à une fonction d'activation. L'efficacité de ces modèles d'IA se développe dans les années 2010 grâce à trois éléments : la mobilisation d'algorithmes déjà disponibles, des corpus de données de tailles inédites grâce à Internet, et une très grande puissance de calcul des ordinateurs.
Depuis 2017, deux innovations majeures ont accéléré la mise en oeuvre de l'IA. On peut d'abord citer l'architecture Transformer en 2017. Cette innovation ajoute à l'apprentissage profond un meilleur traitement du contexte à travers un algorithme appelé mécanisme d'attention. La deuxième innovation est l'application de cette architecture pour créer un système d'IA générative accessible à tous. Cela a donné naissance à des « modèles larges de langage » comme ChatGPT, mais aussi à des outils permettant de créer d'autres contenus, comme des images, des sons, des vidéos, etc. Ces systèmes exploitent des milliards de données et mobilisent jusqu'à des milliers de milliards de paramètres de calcul.
Certains systèmes d'IA générative se basent sur d'autres architectures. Ils ne donnent pas à ce stade d'aussi bons résultats, sauf à être hybridés à l'architecture Transformer, par exemple par l'intermédiaire d'une méthode dite du « mélange d'experts » qui donne des résultats d'une précision inédite. L'architecture Mamba, alternative aux Transformers, repose sur des modèles en « espace d'état structuré » et articule plusieurs types d'IA. C'est une piste intéressante, car il est possible d'hybrider cette architecture avec des Transformers ou de les superposer dans un mélange d'experts.
3. Les questions écologiques et les perspectives d'avenir.
Quels sont les avantages et les limites de ces technologies et quelles perspectives s'ouvrent pour le futur ? Côté avantages, les applications sont innombrables. Côté limites, les IA génératives doivent encore relever plusieurs défis technologiques. L'entraînement des modèles nécessite d'abord des ressources considérables en infrastructures de calcul comme de stockage de données, mais pas seulement. L'IA nécessite en effet des apports considérables d'énergie tout au long de son cycle de vie.
Les modèles peuvent ensuite générer des erreurs importantes, appelées « hallucinations ». Ils reproduisent également en matière algorithmique les biais présents dans les données et peuvent en introduire d'autres au stade de la reprogrammation humaine, comme certains l'ont dénoncé en parlant d'IA « woke ».
Enfin, ils continuent de poser des problèmes d'opacité déjà rencontrés pour les anciennes générations de Deep Learning. Ces systèmes fonctionnent comme des boîtes noires, rendant leur explicabilité très complexe.
Ces défis nécessitent des efforts de recherche pour améliorer la fiabilité des résultats et réduire la consommation énergétique de ces systèmes d'IA. Il s'agit de faire plus avec moins. Il va falloir aller vers des IA frugales et efficaces. Les perspectives futures pour l'IA seront donc sa frugalité, mais aussi sa multimodalité et son agentivité.
Les IA multimodales traitent déjà des données variées - textes, images, sons - et en traiteront bientôt davantage en entrée comme en sortie, pour des usages de plus en plus diversifiés et intégrés. En 2024, GPT 4o a ajouté au texte et aux images le traitement d'instructions vocales et même des interactions vidéo. Après avoir ajouté la génération d'images à son IA en septembre 2024, l'entreprise d'Elon Musk xAI a ajouté la compréhension d'images à son système en octobre 2024.
Pour ce qui concerne l'agentivité, les systèmes pourront devenir de plus en plus autonomes et proactifs. Les évolutions sont rapides. La principale innovation en 2024 est celle des « Agentic Workflows » : ils génèrent une série d'actions qui permet d'automatiser des tâches en s'adaptant en temps réel à la complexité des flux de travail. Ces outils devraient être particulièrement utiles pour les entreprises.
Les IA vont devenir des interfaces, des plateformes d'accès à divers services numériques. Ces interfaces fondées sur l'IA rendront les interactions personne-machine plus fluides et pourraient devenir le principal système d'appui pour nos smartphones et nos ordinateurs en agrégeant les fonctionnalités de l'interface du système d'exploitation, des navigateurs Web, des moteurs de recherche, des logiciels bureautiques, des réseaux sociaux et d'autres applications. Il est probable qu'à l'avenir, les systèmes d'IA deviendront une colonne vertébrale de contrôle des ordinateurs à partir desquels s'articuleront plusieurs services, logiciels et applications.
L'un des problèmes posés par les LLM est leur tendance à halluciner, c'est-à-dire à générer des propos dénués de sens ou des réponses objectivement fausses sans émettre le moindre doute. Pour y faire face, des solutions technologiques sont attendues. La génération augmentée de récupération constitue, par exemple, un moyen d'adjoindre une base de données à un LLM qui, à l'aide d'un récupérateur, utilise les données de cette base, en lien avec l'instruction de l'utilisateur.
4. La conjugaison entre la logique de l'IA symbolique et l'efficacité de l'IA connexionniste.
Les technologies d'IA peuvent être enchâssées les unes dans les autres et conjuguées pour produire de meilleurs résultats. Combiner l'IA connexionniste avec des modèles logiques ou des modèles de représentation du monde réel sera indispensable. L'espace-temps reste en effet inconnu des meilleures IA génératives. Il est possible de se rapprocher de telles articulations avec les arbres de pensées. Sans relever directement de l'IA symbolique, cette technique s'en approche par son recours à des étapes formelles de raisonnement, les idées venant s'articuler logiquement les unes par rapport aux autres. L'IA devient alors neuro-symbolique, car empruntant à la fois à des réseaux neuronaux et à des raisonnements symboliques. Cette méthode peut être appliquée directement à tous les grands modèles de langage actuels grâce à une instruction décomposée en plusieurs phases de raisonnement. On parle pour cette technique de « prompt engineering ». À l'avenir, on trouvera de nombreuses façons de combiner et d'hybrider les technologies, notamment entre les deux branches de l'IA, afin que les systèmes se rapprochent de nos raisonnements logiques.
5. La longue et complexe chaîne de valeur de l'IA
Pour conclure, je voudrais évoquer la complexité de la longue chaîne de valeur de l'IA, étendue sur une dizaine d'étapes. Tout commence avec l'énergie et les matières premières. Les semi-conducteurs en silicium permettent la fabrication des puces. Les logiciels permettent de concevoir des microprocesseurs et des machines lithographiques qui gravent le silicium à l'échelle moléculaire. Nvidia est devenu l'acteur dominant de ce premier maillon de la chaîne.
Le deuxième maillon de la chaîne, celui des infrastructures, se subdivise en de nombreuses phases : la collecte, le nettoyage des données, le stockage de données dans de vastes data centers, l'informatique en nuage - cloud - pour les calculs et, lors de la phase de développement des modèles, le recours spécifique à des supercalculateurs. La multiplication de ces infrastructures conduit aux coûts immenses et aux impacts environnementaux considérables dont je parlais tout à l'heure. On estime par exemple que le coût des infrastructures de Nvidia devrait nécessiter un chiffre d'affaires de 600 milliards de dollars pour permettre un retour sur investissement.
Vient ensuite l'étape de la définition des modèles d'IA, elle-même subdivisée en plusieurs phases. Il y a d'abord la conception de l'architecture du modèle, puis l'entraînement de ce modèle de fondation à l'aide des infrastructures et des algorithmes, et le réglage fin, qui prend la forme d'un apprentissage supervisé et d'une phase d'alignement. Les modèles de fondation s'intercalent donc entre la définition de l'architecture du modèle et le « fine-tuning » qui permet aux systèmes d'IA d'être déployés pour telle ou telle application spécifique, et d'être diffusés auprès du grand public.
La dernière étape est celle des utilisateurs avec les applications qui caractérisent l'aval. En effet, les systèmes d'IA ne deviennent accessibles aux utilisateurs qu'à travers une couche de services applicatifs dont les fameux LLM, comme ChatGPT d'OpenAI, fondés sur des modèles comme GPT4. Ceci permet de bien comprendre la différence entre les modèles et les systèmes. Il sera important de connaître cette distinction lorsque nous évoquerons la régulation.
Mme Corinne Narassiguin, sénatrice, rapporteure. - Je vais maintenant vous présenter les grands enjeux de l'intelligence artificielle. Nous en avons retenu trois : les problématiques politiques, les transformations socioéconomiques et les défis culturels et scientifiques. L'IA est devenue une technologie incontournable qui transforme nos sociétés et nos économies, mais aussi les rapports de force politiques et géopolitiques. J'évoquerai tout d'abord les questions politiques, celles de la souveraineté numérique, les risques de manipulations, les menaces sécuritaires et les risques existentiels.
L'IA est d'abord américaine, ce qui implique plusieurs conséquences. L'IA n'est pas seulement un enjeu économique, mais également un levier de pouvoir géopolitique. Les États-Unis, grâce à leurs géants technologiques, les GAFAM - devenus les MAAAM, désignant Microsoft, Apple, Alphabet, Amazon et Méta -, dominent l'écosystème global de l'IA avec le rôle central de Nvidia qui fournit toutes les entreprises en processeurs graphiques (GPU). La recherche en IA est dominée par la recherche privée.
En parallèle, la Chine aspire à devenir leader mondial d'ici 2030, en investissant toute la chaîne de valeur, notamment les semi-conducteurs. Ces derniers sont devenus un enjeu de premier plan qui dépasse la seule filière de l'IA. Alors que deux tiers des puces sont fabriquées à Taïwan, les autorités américaines et chinoises cherchent à rapatrier une part croissante de cette production sur leurs sols. Pour l'Europe et notamment la France, le défi est celui de la souveraineté numérique afin d'éviter de devenir une pure et simple colonie numérique, pour reprendre la formule utilisée en 2013 par notre collègue sénatrice Catherine Morin-Desailly. L'Union européenne mise aujourd'hui sur la régulation de l'IA, mais cela reste insuffisant face à la taille et à l'avance des puissances américaine et chinoise. La souveraineté numérique contre la domination de la Big Tech américaine appelle au développement d'acteurs français et européens puissants.
L'IA génère de nouveaux risques, notamment à travers la désinformation et les hypertrucages (deepfakes). Les fausses informations ou les trucages ont toujours existé, mais changent d'échelle. Nous parlons de « désinformation au carré ». Ces technologies permettent de produire instantanément et massivement des contenus falsifiés et réalistes, influençant potentiellement les élections ou ternissant la réputation de telle ou telle personnalité publique. La régulation, comme l'imposition de filigranes sur ces contenus, est un début de réponse, mais reste encore difficile à appliquer.
Il faut aussi compter sur les menaces en matière de sécurité. L'IA facilite les attaques à grande échelle à travers la création de logiciels malveillants ou la capture de données sensibles. Ces risques appellent des mesures renforcées : la sécurisation des modèles d'IA, l'analyse des risques et la formation en cybersécurité des développeurs. Comme le disait le rapport de l'Office de 2017, nous avons besoin de favoriser des IA les plus transparentes et les plus sûres possible.
Enfin, parmi les grandes problématiques politiques, se pose la question de l'intelligence artificielle générale (IAG), et le risque existentiel résultant de la singularité. L'IAG qui dépasserait les capacités humaines reste une hypothèse incertaine et lointaine. Bien qu'elle suscite des débats passionnés, ses bases scientifiques comme les lois d'échelle (scaling laws) restent fragiles et incertaines. Certains craignent un risque existentiel, comme Elon Musk, tandis que d'autres, comme Yann LeCun, estiment que l'IA actuelle n'en est pas là, n'ayant toujours aucun sens commun ou capacité autonome réelle. Ceux qui craignent un risque existentiel favorisent souvent des solutions transhumanistes, comme Elon Musk, qui prône une hybridation personne-machine pour rivaliser avec l'IA. Cependant, cette vision soulève des questions éthiques majeures et doit nous inquiéter, car elle repose sur une sorte de négation de la nature humaine.
J'en viens aux impacts sociétaux et économiques de l'IA.
En matière de santé et de bien-être, l'IA améliore déjà notre vie quotidienne à travers une multitude d'outils. Elle optimise nos parcours de transport et surveille notre rythme cardiaque grâce à des applications de santé. À l'avenir, diagnostics, dépistages précoces et traitements seront optimisés grâce à l'IA. La recherche médicale sera accélérée et des capteurs permettront d'anticiper les urgences médicales comme les crises cardiaques. En dépit de tous ces avantages, l'utilisation massive de l'IA pourrait aussi avoir des conséquences négatives sur notre santé psychologique. Sur ce plan, l'un des points de vigilance concerne les effets cognitifs. J'y reviendrai.
L'IA a par ailleurs un impact économique incertain. Les travaux qui tentent de prédire l'impact de l'intelligence artificielle sur la croissance ou son potentiel en termes de gains de productivité divergent. L'IA peut stimuler certains secteurs, mais son impact global sur la croissance reste incertain dans un contexte de faible diffusion des technologies. La direction générale du Trésor estime ainsi qu'il est encore trop tôt pour établir des prévisions chiffrées. Le paradoxe de Solow, selon lequel on voit des ordinateurs partout, sauf dans les statistiques de productivité, pourrait se confirmer pour l'IA. La diffusion de l'innovation est toujours difficile à observer et encore plus à quantifier.
Le coût énergétique de l'IA doit conduire à souligner son impact environnemental considérable. Ces systèmes ont une empreinte carbone et un impact sur la ressource en eau élevés, qui ne font que croître car les besoins en énergie de l'IA explosent. Nous devons en tirer les conséquences. Au-delà de la tension que fait peser cette hausse de la consommation d'énergie sur les réseaux électriques, le développement de l'IA menace également nos objectifs climatiques. À cet égard, l'objectif d'une IA frugale est un impératif.
J'en viens maintenant aux transformations de l'emploi. Il est difficile d'évaluer précisément l'impact de ces technologies sur le marché du travail. Un consensus semble pourtant se dégager : plus qu'un remplacement des emplois par l'IA, nous assisterons à une transformation des tâches et des métiers par ces technologies. L'ampleur et les modalités de ces transformations ne sont pas mesurées de la même façon par toutes les études. Cependant, même si tous ces effets restent encore incertains, ils appellent un dialogue social pour accompagner ces transitions.
L'IA pourrait augmenter la productivité et parfois exacerber les inégalités. Ceci appelle une certaine vigilance. Elle nécessite en outre d'adopter des politiques publiques de formation initiale et de formation continue en vue d'anticiper les évolutions et d'accompagner les travailleurs d'aujourd'hui et de demain. Des politiques de requalification ambitieuses sont indispensables.
Je vais conclure mon propos en exposant les défis culturels et scientifiques soumis par l'IA : l'uniformisation culturelle et cognitive, les droits de propriété intellectuelle et la révolution des connaissances scientifiques.
L'IA est dominée par les acteurs anglo-saxons, ce qui risque d'accentuer fortement l'hégémonie culturelle des États-Unis. Ce phénomène d'uniformisation appauvrit la diversité culturelle et linguistique, mais crée aussi une uniformisation cognitive. Le capitalisme cognitif, qui repose sur la conjugaison des écrans et de l'IA, conduit à une économie de l'attention préoccupante, notamment parce qu'elle enferme les utilisateurs des technologies numériques dans des bulles de filtres. Cet enfermement informationnel polarise les visions de chacun dans des croyances subjectives. Ce sont autant de prisons mentales qui se déclinent à l'échelle individuelle. Cette tendance n'est que d'apparence paradoxale.
On a dans le même temps une polarisation marquée des opinions et des identités - selon des variables de la culture américaine, avec une forte dimension émotionnelle - et une uniformisation culturelle doublée d'une uniformisation cognitive.
Nous courons le risque de devenir une « civilisation de poisson rouge », comme l'évoque Bruno Patino. La durée maximale d'attention du poisson rouge qui tourne dans son bocal est de huit secondes. Or la durée moyenne d'attention de la génération des millennials, celle qui a grandi avec les écrans connectés, est de neuf secondes.
Toutes ces conséquences de l'IA, des écrans et du numérique sur la cognition doivent nous mobiliser, surtout vis-à-vis des jeunes générations et des petits enfants, particulièrement victimes de ces impacts cognitifs et cela de manière irréversible. L'éducation au numérique en général et à l'IA en particulier est une urgence impérieuse pour la cohésion de nos sociétés et la santé de chacun.
La France doit par ailleurs défendre sa langue et ses spécificités culturelles face à des systèmes d'IA comme les grands LLM, qui privilégient l'anglais et la culture américaine sur un plan linguistique et culturel. Comme nous l'écrivons dans le rapport : ne donnons pas notre langue à ChatGPT. Il faut conserver la diversité linguistique et culturelle de l'humanité et nous avons en France besoin de modèles d'IA les plus souverains possibles, reflétant notre culture, entraînés avec des données qui la reflètent le plus fidèlement possible et qui mobilisent des sources issues de notre riche patrimoine culturel et linguistique.
J'ajoute que les raisonnements probabilistes, basés sur l'induction, sont prometteurs et donnent souvent des résultats impressionnants, mais ils tendent à nous faire oublier le grand intérêt des raisonnements déductifs sur lesquels se sont construites la plus grande part de nos connaissances scientifiques. La généralisation de cas particuliers sous l'effet des données massives traitées par I'IA connexionniste est devenue la règle. Or le résultat d'une inférence suivant un raisonnement inductif, même basé sur des milliards d'exemples, peut toujours être démenti par un ou plusieurs contre-exemples.
Les deux formes de raisonnement, déductif et inductif, doivent continuer à cohabiter de manière plus équilibrée, sans quoi l'ère de l'IA et du Big Data va conduire les habitants de la planète entière à penser selon le même mode. Ils penseront non seulement avec les mêmes références culturelles, mais aussi selon les mêmes structures cognitives tournées vers l'induction.
Les questions de propriété intellectuelle et de création artistique comptent parmi les enjeux majeurs de l'IA générative. L'IA mobilise les données protégées par le droit d'auteur ou par le copyright. Les artistes et créateurs sont confrontés à des questions inédites concernant les droits d'auteur. Par exemple, les oeuvres générées par IA peuvent brouiller les frontières entre originalité et imitations, menaçant les régimes traditionnels de propriété intellectuelle. Une réflexion doit s'ouvrir sur le sujet de la propriété intellectuelle et de la création artistique à l'heure de l'intelligence artificielle.
Dans ce contexte d'incertitude, les risques contentieux sont de plus en plus grands, qu'il s'agisse de l'utilisation d'oeuvres protégées pour entraîner les modèles, de la protection des oeuvres générées par des systèmes IA ou de tout autre litige qui pourrait finir par émerger. En l'absence de règles claires, il reviendra aux juges de prendre des décisions sur ces litiges. Le rôle de la jurisprudence sera donc central et laisse les artistes, les entreprises et les utilisateurs dans un flou juridique anxiogène, avec des risques financiers non négligeables. C'est pourquoi une clarification de ces enjeux et des régimes juridiques applicables est indispensable.
Enfin, dans le domaine scientifique, l'IA fertilise les autres disciplines et ouvre des perspectives immenses, comme en témoignent les exemples de la génomique, de la modélisation du repliement des protéines ou de la création de jumeaux numériques. Ces avancées permettront de résoudre de plus en plus de problèmes complexes et d'accélérer les découvertes. Il n'est pas anodin qu'en 2024, les prix Nobel de physique et de chimie soient l'un et l'autre revenus à des chercheurs en IA.
Ces bénéfices potentiels de l'IA nécessitent une adaptation de nos politiques de recherche.
En résumé, l'intelligence artificielle est porteuse d'immenses opportunités, mais aussi de défis complexes. Comment garantir que l'IA s'aligne sur nos valeurs, respecte les droits humains et les principes humanistes ? Il est crucial d'élaborer des cadres réglementaires solides, de renforcer la souveraineté technologique et d'éduquer nos sociétés aux enjeux de ces technologies. Ces perspectives nécessitent une gouvernance internationale pour encadrer les développements en cours et anticiper d'éventuels risques.
M. Alexandre Sabatou, député, vice-président de l'Office, rapporteur. - Avant de vous présenter nos recommandations, je voudrais d'abord exposer quelques initiatives en matière de régulation de l'IA, à commencer par notre stratégie nationale. Depuis 2017, la France a cherché à structurer une stratégie nationale. Nous soulignons dans le rapport un retard à l'allumage. Le Plan France IA lancé en janvier 2017 par le président François Hollande a été purement et simplement abandonné. Un an plus tard, sur la base d'un rapport de notre ancien collègue député et président de l'Office Cédric Villani, le président Emmanuel Macron a annoncé le 29 mars 2018 une stratégie nationale et européenne pour l'intelligence artificielle qui visait à faire de la France un leader mondial en IA. Cette stratégie à 1,5 milliard d'euros a permis la labellisation de quatre instituts interdisciplinaires en intelligence artificielle (3IA), le financement de chaires et de doctorats, ainsi que l'investissement dans des infrastructures de calcul comme le supercalculateur Jean-Zay inauguré en 2019 et Adastra inauguré en 2023, dont les performances atteignent respectivement 36,85 et 74 pétaflops. Jean-Zay devrait toutefois être renforcé cette année pour atteindre 125,9 pétaflops.
À titre de comparaison, l'entreprise d'Elon Musk, xAI, qui développe le système Grok, s'est dotée de supercalculateurs Colossus développant 3,4 exaflops avec 100 000 processeurs Nvidia Hopper 100. Sa taille devrait doubler d'ici quelques mois pour atteindre 200 000 processeurs. Le supercalculateur Jean-Zay, après son extension prévue d'ici la fin de l'année 2024, sera quant à lui doté de 1 456 puces Nvidia Hopper 100.
D'autres limites de notre stratégie nationale en IA sont relevées, y compris par la Cour des comptes qui a publié un rapport en avril 2023 pour évaluer cette stratégie. Ses résultats sont jugés insuffisants, la France ayant continué à décrocher au niveau international depuis 2018.
Nous faisons le constat d'une coordination interministérielle insuffisante. Le pilotage de la stratégie nationale de l'IA reste toujours défaillant. Le coordinateur national, rattaché initialement à la direction interministérielle du numérique et des systèmes d'information et de communication (Dinsic), puis à la direction générale des entreprises (DGE) du ministère de l'économie, est sans autorité réelle sur la stratégie et sa mise en oeuvre. L'instabilité du titulaire de cette fonction et les vacances répétées du poste révèlent une fonction mal définie. La stratégie demeure en réalité sans pilote, évoluant au gré des annonces et du plan de communication du Président de la République, à l'instar de son courrier du 25 mars 2024 ou de son discours lors du rassemblement des plus grands talents français de l'IA à l'Élysée le 21 mai 2024.
La Commission de l'intelligence artificielle a proposé en 2024 un investissement massif de 27 milliards d'euros sur cinq ans pour l'IA en France. La mise à disposition de sommes aussi conséquentes semble peu probable.
Lors du rassemblement des plus grands talents français de l'IA à l'Élysée le 21 mai dernier, le Président a annoncé un plan d'investissement de 400 millions d'euros pour financer neuf pôles d'excellence en IA, comprenant les quatre anciens instituts 3IA, l'objectif étant de passer de 40 000 à 100 000 personnes formées à l'IA chaque année. Nous proposons de commencer par reconduire le programme « confiance.ia », peu coûteux pour les finances publiques.
Nous avons réalisé un benchmark assez poussé de près de vingt stratégies mises en place, six dans l'Union européenne et onze dans le reste du monde. La réglementation de l'Union européenne semble complexe et peu propice à l'innovation. L'AI Act conjugue un dispositif régulant les usages de l'IA selon leur niveau de risque et un encadrement des modèles d'IA selon leur puissance.
Nous avons également recensé les projets de gouvernance mondiale de l'IA : on en compte une dizaine, ce qui est excessif. Un tel constat plaide pour une convergence autour d'une régulation internationale unique. Nous présentons les projets de l'ONU, de l'Unesco, de l'OCDE, du Conseil de l'Europe, du G20, du G7, du Partenariat mondial sur l'intelligence artificielle ou Global Partnership on Artificial Intelligence, du Conseil du commerce et des technologies Europe États-Unis, du Forum économique mondial, des BRICS, de la Chine, etc.
Le rapport met en évidence des efforts nationaux inégaux pour réguler l'IA tout en soulignant le besoin d'une approche coordonnée. La France va organiser un sommet sur l'IA en 2025, nous y voyons l'occasion de promouvoir une gouvernance mondiale cohérente pour aborder les enjeux de l'IA sans se restreindre au seul sujet de la sécurité. L'Office a un rôle à jouer pour aider le Gouvernement à structurer sa propre stratégie, mais aussi pour contribuer à cette future gouvernance mondiale de l'IA.
Nous vous proposons à présent 18 recommandations dont cinq sont en lien avec la préparation du prochain sommet. Je commence avec ces propositions qu'il nous semble nécessaire de soutenir dans le cadre du sommet pour l'IA qui aura lieu à Paris les 10 et 11 février 2025. Tout d'abord, nous souhaitons faire reconnaître le principe d'une approche transversale de l'IA et renoncer à l'approche exclusivement tournée vers les risques, qui est de rigueur depuis le premier sommet britannique de 2023.
Le Président a fixé cinq thèmes qui feront l'objet du sommet : l'IA au service de l'intérêt public avec la question des infrastructures ouvertes, l'avenir du travail, la culture, l'IA de confiance, et la gouvernance mondiale de l'IA. Nous pensons que ce sommet doit aller plus loin et fournir l'occasion d'inscrire solennellement le principe d'une approche transversale des enjeux de l'IA au sein d'une déclaration des participants.
Nous estimons qu'aux thèmes retenus pour le sommet de l'IA, devraient être ajoutés deux autres : l'éducation, qui pourrait être ajoutée à la verticale « culture », avec pour intitulé « Éducation et culture », et la souveraineté numérique, qui pourrait être ajoutée à la verticale « L'IA au service de l'intérêt public » avec pour intitulé « Souveraineté numérique et intérêt général ».
Ce sommet doit être l'occasion d'apporter un minimum de clarification et de rationalisation dans la dizaine de projets de gouvernance mondiale de l'IA. Nous proposons de placer la gouvernance mondiale sous l'égide d'une seule organisation internationale, à savoir l'ONU, seule organisation pleinement légitime sur le plan multilatéral.
Nous souhaitons également initier le cadre d'une régulation globale et multidimensionnelle de l'IA en s'inspirant des travaux de l'OCDE et de l'Union européenne. L'approche de la régulation mondiale de l'IA doit être multidimensionnelle ainsi que le montrent la chaîne de valeur de l'IA ou, différemment, les travaux de l'OCDE.
Il devrait aussi y être annoncé un programme européen de coopération en IA associant plusieurs pays, dont la France, l'Allemagne, les Pays-Bas, l'Italie et l'Espagne, qui sont des pays qui partagent une vision commune de l'IA et de ses enjeux.
Afin de garantir une plus grande légitimité du futur sommet, nous demandons d'associer plus étroitement le Parlement à son organisation. La nomination d'un député et d'un sénateur au sein du comité de pilotage du sommet serait à cet égard un gage de crédibilité, marquant la volonté de l'exécutif d'accroître le fondement démocratique de la réflexion française sur l'encadrement de l'IA à l'échelle internationale.
Nous avons également des propositions pour mettre en place une véritable politique nationale de l'IA. Tout d'abord, ce qui me semble être le plus important est le développement d'une filière française ou européenne autonome sur l'ensemble de la chaîne de valeur de l'intelligence artificielle. C'est la première de nos propositions au niveau national et un objectif qui doit tous nous mobiliser : pouvoirs publics nationaux et locaux, décideurs économiques, associations et syndicats. Nous devons viser le développement d'une telle filière sur l'ensemble de la chaîne de valeur de l'intelligence artificielle, même sans chercher à rivaliser avec les puissances américaine et chinoise. Il vaut mieux une bonne IA chez soi, qu'une très bonne IA chez les voisins. Que ce soit au niveau européen, par l'Union européenne ou avec une coopération renforcée entre quelques pays, ou directement au niveau national, la France doit relever ce défi de construire pour elle en toute indépendance, de nombreux maillons de la chaîne de valeur de l'intelligence artificielle.
Plutôt qu'une stratégie sans objectifs, sans gouvernance et sans outils de suivi, il convient de mettre en place une politique de l'IA avec des objectifs et des moyens réels dans le cadre d'une gouvernance digne de ce nom et avec des outils de suivi et d'évaluation. Ces éléments sont aujourd'hui cruellement absents des politiques publiques menées en France en matière d'IA. Plus largement, la politique de la Start-up Nation, conduite avec son bras armé la French Tech, aussi élitiste qu'inadaptée, est à abandonner au profit d'une politique de souveraineté numérique cherchant à construire notre autonomie stratégique et à mailler les territoires.
Nous souhaitons également organiser le pilotage stratégique de la politique publique de l'intelligence artificielle au plus haut niveau. Comme je l'ai dit, la stratégie nationale pour l'IA ne dispose pas d'une gouvernance digne de ce nom. Il faudra mieux coordonner la politique publique nationale de l'intelligence artificielle que nous appelons de nos voeux et lui donner une réelle dimension interministérielle.
Il est, par ailleurs, indispensable de lancer de grands programmes de formation à l'IA à destination des scolaires, des collégiens et lycéens, des étudiants, des actifs et du grand public. De ce point de vue, les politiques conduites par la Finlande sont un modèle à suivre. La démystification de l'IA est une première étape importante, voire nécessaire, pour favoriser la diffusion de la technologie et accompagner le déploiement de ces technologies dans le monde du travail et la société, notamment par la formation permanente.
S'il est difficile de prévoir l'impact précis que l'IA aura sur le marché du travail, il faut tout de même accompagner le déploiement de ces technologies, notamment l'IA générative, dans le monde du travail, en particulier par des programmes de formation permanente ambitieux. Nous recommandons aussi de mener régulièrement des études qualitatives et quantitatives sur l'impact de l'IA sur l'emploi, le tissu social, les inégalités et les structures politiques. Le dialogue social par la négociation collective peut être renouvelé par l'introduction de cycles de discussions tripartites autour de l'IA et de ses enjeux. Une opération d'envergure nationale comme un « Grenelle de l'IA » pourrait également être organisée. Le dialogue social autour de l'IA devrait aussi se décliner dans les entreprises pour permettre une meilleure diffusion des outils technologiques et un rapport moins passionné à leurs conséquences.
L'écosystème français de l'IA ne doit pas être mobilisé qu'à travers la French Tech, des meet-up à Station F et l'événement annuel Viva Tech. Tous les acteurs de l'IA, la recherche publique et privée, les grands experts du système, mais aussi l'ensemble des filières économiques doivent pouvoir faire l'objet d'une grande mobilisation générale.
Nous préconisons aussi des pôles d'animation régionaux. Au titre des expériences étrangères, la structure NL AI Coalition créée par le gouvernement néerlandais rassemble depuis cinq ans l'écosystème public et privé de l'IA aux Pays-Bas, avec le concours du patronat, des universités et des grands centres de recherche. Elle s'appuie sur sept centres régionaux.
Chez nous, il faudrait reconduire le programme Confiance.ai ou mettre en place un programme équivalent. Il réunissait dans une logique partenariale de grands acteurs académiques et industriels français dans les domaines critiques de l'énergie, de la défense, des transports et de l'industrie, et avait pour vocation de permettre aux industriels d'intégrer les systèmes de l'IA de confiance dans leurs processus. Il ne coûtait pas cher et était efficace. Nous regrettons qu'il ait été interrompu en 2024.
Il convient, par ailleurs, de soutenir la recherche publique en intelligence artificielle selon les critères de transversalité et de diversification des technologies. La recherche privée en intelligence artificielle a pris beaucoup d'avance sur la recherche publique, mais cette dernière doit revenir dans la course. La soutenir davantage est un impératif. L'Office juge pertinent de l'orienter vers des activités transdisciplinaires autour de projets de recherche en IA. La diversification des technologies est aussi fondamentale. Les avancées en IA naissent grâce à la combinaison et la recomposition de savoirs et de savoir-faire, et non par l'enfermement dans un modèle unique. L'IA symbolique ne doit pas être totalement abandonnée. Elle peut d'ailleurs s'hybrider avec les IA connexionnistes pour forger de nouvelles approches logiques, imbriquant le signifiant et le signifié, plus proche de nos raisonnements humains. D'autres technologies permettant d'apporter plus de logique aux systèmes d'IA générative peuvent également inspirer de nouvelles perspectives pour la recherche, comme les modèles de mixture of experts, la génération augmentée de récupération (retrieval augmented generation) ou encore les arbres de pensées (trees of thoughts). Pour paraphraser Rabelais qui écrivait : « science sans conscience n'est que ruine de l'âme », nous affirmons que l'IA sans logique n'est qu'illusion d'intelligence.
Nous estimons nécessaire de relever le défi de la normalisation en matière d'intelligence artificielle. Il faut permettre à la France de défendre au mieux l'intérêt national ainsi que les intérêts de nos entreprises en matière de normalisation sur l'IA, ce qui implique de mobiliser davantage l'Afnor et le Cofrac. La France doit inviter ses partenaires européens à faire preuve d'une plus grande vigilance dans le choix de leurs représentants dans les comités chargés de la normalisation de l'IA. S'appuyer sur des experts issus d'entreprises extra-européennes, souvent américaines ou chinoises, n'est pas acceptable.
S'assurer du contrôle souverain des données issues de la culture française et des cultures francophones et créer des bases de données autour des cultures francophones représente un acte de résistance face à une domination linguistique et culturelle américaine qui caractérise l'IA aujourd'hui et qui fait courir un risque grave d'uniformisation culturelle et linguistique. Les initiatives conduites par certains pays, en particulier l'Espagne, peuvent être une source d'inspiration.
Il est nécessaire de préparer une réforme des droits de propriété intellectuelle et des droits d'auteur pour les adapter à l'IA et surtout à l'IA générative. L'objectif sera à la fois de clarifier les régimes juridiques applicables, de protéger les ayants droit des données ayant servi à l'entraînement des modèles, mais aussi les créateurs d'oeuvres nouvelles grâce à l'IA.
Enfin, notre dernière recommandation est de confier à l'OPECST le suivi et l'évaluation régulière de la politique publique conduite par le Gouvernement. Les aspects scientifiques et technologiques de l'intelligence artificielle ainsi que les enjeux qu'elle soulève appellent une expertise à la croisée des mondes politique et scientifique. C'est donc logiquement un rôle pour l'Office. La commission des lois de l'Assemblée nationale a d'ailleurs formulé dans un rapport son souhait de confier à l'OPECST le suivi permanent des questions relatives à l'intelligence artificielle.
M. Stéphane Piednoir, sénateur, président de l'Office. - Merci beaucoup pour cette présentation très complète.
Mme Florence Lassarade, sénatrice, vice-présidente de l'Office. - Les jeunes enfants sont confiés à des enseignants de formation littéraire. Cette situation fait-elle prendre du retard à la France en matière d'acculturation à l'IA ? Faut-il s'inspirer de la Finlande, pionnière dans l'éducation des enfants ? Avez-vous pu comparer la façon dont les différents pays européens se sont emparés de ce sujet d'un point de vue éducatif ?
En matière de santé, les perspectives offertes par l'IA sont formidables, mais dans nos hôpitaux, les logiciels sont disparates et bricolés, ce qui peut conduire à des erreurs. La réalité nous empêche de tirer tous les bénéfices potentiels de l'IA.
Mme Anne-Catherine Loisier, sénatrice, vice-présidente de l'Office. - La commission des affaires économiques du Sénat a récemment auditionné le président de Dassault Systèmes qui nous a apporté des éclairages intéressants sur le sujet. Je m'interroge sur la gouvernance partagée entre public et privé. Nous constatons que les avancées se font plutôt chez les acteurs privés, qui dominent le secteur au niveau international. Qu'en pensez-vous ?
Avez-vous le sentiment que notre système de formation permet de préparer nos jeunes aux potentialités de l'IA ?
Mme Corinne Narassiguin, sénatrice, rapporteure. - Nous avons effectivement regardé de près le modèle finlandais, car il permet aux enfants de s'approprier l'IA. En France, des chercheurs travaillent sur cette question, mais l'éducation à l'IA reste un domaine sous-exploité. Lors d'un déplacement à San Francisco, nous avons rencontré la fondation EveryoneAI, un groupe de Français qui s'intéresse aux impacts neurocognitifs de l'IA sur les jeunes enfants. Ils ont constaté qu'utiliser l'IA de façon trop précoce, par exemple avec des doudous IA, peut provoquer des problèmes de socialisation. Ils ont publié un très bon rapport sur le sujet en juillet 2024. De nombreuses personnes travaillent sur ce sujet, mais sans coordination, une politique publique est donc nécessaire.
Le même constat est valable pour la formation des adultes : une des recommandations du rapport est d'intégrer un enseignement sur l'IA à l'école, à l'université et dans le cadre de la formation professionnelle. Aujourd'hui, les professeurs sont plus inquiets de savoir si leurs étudiants écrivent leurs mémoires avec ChatGPT que d'essayer de comprendre comment accompagner ce changement en travaillant avec les élèves à l'utilisation de l'IA. Il faut adapter les enseignements pour apprendre aux élèves à s'approprier l'outil. Toutefois, il faut faire attention à ne pas faire de l'IA une béquille trop tôt au cours de la scolarité, car elle peut alors devenir un frein. L'éducation et la formation à l'IA sont des sujets de recherche dont nous avons besoin.
M. Patrick Chaize, sénateur, rapporteur. - Concernant l'exemple finlandais, vous trouverez quelques informations dans le rapport. Je relie la question de la formation et de la préparation des jeunes à l'IA à la question de l'inclusion numérique. Je suis convaincu que notre pays devra passer par une phase d'inclusion à l'IA. Or je suis inquiet de constater une baisse des moyens dédiés à l'inclusion numérique. L'école doit également être mobilisée pour former à l'utilisation de ce nouvel outil.
M. Alexandre Sabatou, député, vice-président de l'Office, rapporteur. - En ce qui concerne la santé, le sujet est enthousiasmant, car les potentialités sont gigantesques. Mon sentiment est que la médecine est restée longtemps au niveau de l'artisanat. Le docteur ou le chirurgien, certes équipés d'outils performants, devaient prendre seuls des décisions. Mais aujourd'hui, la recherche scientifique montre que l'IA peut détecter des tumeurs de façon plus efficace que des médecins.
Mme Florence Lassarade, sénatrice, vice-présidente de l'Office. - Ma question portait sur les logiciels hospitaliers et leur obsolescence qui empêche de profiter des potentialités de l'IA.
M. Patrick Chaize, sénateur, rapporteur. - La question de l'acceptation par les médecins est importante.
M. Alexandre Sabatou, député, vice-président de l'Office, rapporteur. - Il faut laisser le temps à la technologie de mûrir. L'acceptabilité est également un enjeu. Lors de nos auditions, nous avons découvert que l'humain n'accepte pas l'erreur lorsqu'elle émane de machines. Je prends l'exemple des taxis autonomes, qui ont mis du temps à être acceptés en Californie. En cas d'accident, le fait que la machine ait pu commettre une erreur est difficilement toléré. Toutefois, si des études comparatives étaient connues, nous pourrions nous rendre compte que les taxis autonomes ont moins d'accidents que les autres véhicules. C'est la même chose pour la santé. Si une machine prend une mauvaise décision, qui est responsable ? La responsabilité d'un médecin est simple à déterminer, or l'IA reste souvent une boîte noire.
Mme Corinne Narassiguin, sénatrice, rapporteure. - Je signale que la délégation à la prospective du Sénat a publié un rapport sur l'IA et la santé.
La question de la gouvernance partagée public/privé est effectivement un enjeu important. En Europe, l'AI Act va s'appliquer dans chaque État de l'Union. Il reste à savoir comment la France va mettre en oeuvre cette régulation. Il est évident que nous faisons face à un problème de souveraineté puisque les grands acteurs ne sont pas européens. Nous devons donc investir très largement pour développer nos propres entreprises. Nous pouvons légiférer et établir un cadre légal pour la protection des données, la gestion et l'évaluation des risques. Mais, comme dans d'autres domaines comme l'alimentaire, nous devons travailler avec les acteurs privés.
Aux États-Unis, le cadre normatif en IA n'est pas contraignant et, officiellement, la régulation y est perçue comme un frein à l'innovation. En réalité, les acteurs sont plutôt heureux que l'Europe impose un cadre, comme l'a montré le RGPD par exemple. Ainsi, les entreprises peuvent s'appuyer sur ces normes imposées par la puissance publique pour démontrer aux utilisateurs que leurs produits sont viables et les risques maîtrisés.
Mme Anne-Catherine Loisier, sénatrice, vice-présidente de l'Office. - Il faut prendre garde à ne pas réguler la technologie trop tôt. Les États-Unis commencent par trouver un marché avant d'édicter des normes pour l'encadrer alors que nous faisons l'inverse. Cette idée nous a été confirmée par le président de Dassault Systèmes lors de son audition. Nous disposons d'un écosystème avec quelques leaders, notamment dans le domaine des logiciels, et nous devons bâtir notre souveraineté avant d'imposer trop de normes.
M. Alexandre Sabatou, député, vice-président de l'Office, rapporteur. - Nous partageons votre mise en garde, réguler trop tôt handicape nos entreprises. C'est pour cette raison que nous proposons une gouvernance à l'échelle internationale, au niveau de l'ONU, car l'Union européenne n'est pas forcément le meilleur niveau.
À San Francisco, nous avons rencontré une diaspora française composée d'anciens élèves de nos grandes écoles, partis aux États-Unis pour trouver un cadre moins restrictif. Une vraie réflexion nationale doit être menée sur ce sujet.
M. Stéphane Piednoir, sénateur, président de l'Office. - Je souhaite saluer le travail de la délégation à la prospective qui s'est intéressée aux perspectives d'usages de l'IA dans les services publics. J'aimerais revenir sur la question de l'acculturation à l'IA. Où est l'éducation à l'esprit critique et aux raisonnements mathématiques ? Je vous remercie pour les chapitres du rapport consacrés à la linéarisation des processus, aux modèles continus et discontinus ou aux produits scalaires, qui m'ont rappelé de bons souvenirs. Lorsque j'étais professeur de mathématiques, j'avais l'habitude de dire que le plus important est le raisonnement, la déduction logique et le regard critique. Faire une démonstration, c'est arriver à un résultat en cheminant de manière rigoureuse. Je considère que cette idée est au coeur de l'acculturation des publics les plus jeunes car nous ne sommes plus à l'ère du « je crois ce que je vois ». De nombreux faux circulent. Les filigranes sur les photos sont une chose, mais l'IA se nourrit elle-même. Elle ingère des fake news et propage ensuite de fausses nouvelles. Le système s'autoalimente et produit des hallucinations. Pensez-vous, comme Elon Musk, qu'un moratoire sur l'IA est une bonne idée alors même que nos enfants utilisent déjà les IA génératives ?
En ce qui concerne le rapport aux écrans, une loi de 2018 dont j'étais rapporteur interdit les smartphones pendant les cours. Dans les faits, cette législation est largement détournée. Une expérimentation est actuellement conduite. Elle consiste à demander aux collégiens et lycéens de laisser leurs smartphones à l'entrée des établissements. Ainsi l'IA est mise à distance, au moins sur le temps scolaire.
Vous évoquiez la régulation internationale en proposant de la confier à l'ONU. Cette idée est-elle réaliste ? Dans quels délais l'envisagez-vous et quels en seraient les contours ?
Je suis rapporteur du budget de l'enseignement supérieur et mon collègue Pierre Henriet suit celui de la recherche à l'Assemblée nationale ; je peux vous assurer que les offres d'emploi dans le privé, notamment au sein des grands organismes mondiaux, sont particulièrement intéressantes. La différence d'attractivité avec la recherche publique est très importante. Comment dès lors inciter nos chercheurs à rester en France ?
Vous parliez de souveraineté, de filière française ou européenne autonome, mais quel est votre regard sur le désastre Atos ? Nous avions un leader français du stockage de données qui existe encore, mais qui a perdu son leadership.
M. Alexandre Sabatou, député, vice-président de l'Office, rapporteur. - J'aimerais vous parler d'une expérience que nous avons vécue aux Pays-Bas. Dans ce pays, les acteurs privés et la recherche universitaire ont réussi à mettre en place des ponts intéressants. Pendant 3 à 5 ans, les chercheurs travaillent dans le privé, gagnent de meilleurs salaires, mais peuvent ensuite revenir à l'université. Les allers-retours sont simplifiés. Inspirons-nous de ce modèle et ne tombons pas dans la caricature, comme trop souvent en France, des chercheurs qui ne s'intéresseraient pas à l'économie et aux applications concrètes de leurs recherches.
Mme Corinne Narassiguin, sénatrice, rapporteure. - Le modèle batave est effectivement très intéressant. Nous devons créer des écosystèmes qui permettent de ne pas être dépendant d'un unique acteur, comme c'est le cas avec Atos. Les Hollandais ont réalisé qu'ils n'avaient pas les ressources pour entrer en compétition avec OpenAI ou Nvidia. Ils ont donc choisi de se concentrer sur des niches dans lesquels ils peuvent être compétitifs.
Comment être souverain sur toute la chaîne de valeur ? J'estime personnellement qu'il est plus pertinent d'imaginer une souveraineté à l'échelle européenne. Dans le cadre de cette souveraineté, l'objectif doit être de rendre la France la plus forte possible. Nous devons aussi trouver des spécificités sur lesquelles nous serons les meilleurs. Sur certains sujets, il ne sera pas possible de concurrencer les Américains qui ont pris trop d'avance. Toutefois, nous pouvons trouver des niches à l'instar des Néerlandais. Pour réussir cette ambition, nous devons construire un écosystème qui mêle public et privé pour permettre la circulation des talents.
En ce qui concerne la fuite des cerveaux, nous avons pu constater que la Grande-Bretagne ou les Pays-Bas sont confrontés au même problème. Certes, les chercheurs partent aux États-Unis pour des questions de moyens, mais aussi parce que l'environnement de travail attire des personnalités brillantes qui viennent du monde entier. Ils peuvent y travailler avec les meilleurs. Par conséquent, nous devons nous aussi créer des pôles d'excellence, en France et plus largement en Europe.
Je pense que l'idée d'un moratoire est totalement illusoire. N'importe quelle entreprise sur la planète peut investir dans l'IA, il est donc impossible de l'interdire. N'ignorons pas non plus la duplicité d'Elon Musk. Lorsqu'il demande ce moratoire, M. Musk est en train d'investir massivement pour essayer de rattraper son retard sur ses concurrents et les doubler. Il espère ainsi les freiner dans leur dynamique. M. Musk cherche aussi à développer des technologies transhumanistes qui glissent vers le post-humanisme. Obtenir un moratoire sur l'IA et en même temps faire évoluer l'humanité vers des technologies transhumanistes tendant à l'« augmentation humaine » et à la déshumanisation ne nous semble pas souhaitable.
M. Patrick Chaize, sénateur, rapporteur. - Nous avons dans l'idée de profiter du sommet prévu en février 2025 pour faire avancer le sujet de la gouvernance mondiale.
Sur Atos, je crois que nous pouvons tous être choqués par ce qui s'est passé, mais nous devons faire en sorte de travailler pour notre souveraineté. L'économie est mondialisée, mais l'innovation est entre les mains, non plus de nations, mais de quelques hommes au sein des grandes entreprises américaines. Peut-être devons-nous nous poser les bonnes questions pour faire en sorte de renforcer notre souveraineté en la matière. Nous avons rencontré de nombreux Français aux États-Unis. Certes, leurs rémunérations sont particulièrement intéressantes, mais ils expliquent aussi pouvoir travailler librement sur des projets enthousiasmants et motivants.
Je reprends la question de la distance aux écrans. On peut interdire les écrans pendant le temps scolaire. Selon moi, ce genre de mesure ne permet pas de régler le problème. Je pense qu'il faut une éducation au numérique pour faire en sorte que l'on sache se servir des écrans et qu'on arrive à en décrocher. Il faudrait vraiment accentuer l'inclusion, l'éducation, l'accompagnement pour essayer de provoquer une prise de conscience des potentiels de ces outils, mais aussi de leurs risques.
M. Alexandre Sabatou, député, vice-président de l'Office, rapporteur. - J'aimerais rebondir sur la question de la souveraineté. J'ai un désaccord avec Corinne Narassiguin, car j'estime qu'il faut essayer de faire le maximum en France pour des questions évidentes de souveraineté nationale. Je tiens à rappeler que nous ne sommes pas un petit pays. Nous avons tout de même inventé le TGV. Nous faisons partie des premiers à avoir eu des centrales nucléaires de très grande qualité. Si, en 2024, nous nous lancions dans le nucléaire pour la première fois, nous aurions sans doute des réflexions expliquant que ce n'est pas possible, que nous sommes incapables de mener de tels projets seuls. Je crois que nous sommes capables de développer notre propre filière d'IA, ce qui ne doit pas empêcher la coopération européenne. Nous proposons de travailler avec l'Allemagne, les Pays-Bas, l'Italie et l'Espagne, parce que sur certains projets nous sommes capables d'avancer ensemble, comme le prouve la réussite d'Airbus.
Je reviens également sur la question des données corrompues qui pourraient faire dérailler le système. Nous savons aujourd'hui que la donnée est le nouvel or noir. Jusqu'à présent, ChatGPT aspirait tout ce qui se trouvait sur Internet pour nourrir son modèle. Mais il est devenu très important de travailler sur des bases de données de qualité qui ne comportent pas d'erreurs et peuvent devenir des références. C'est pour cette raison que nous demandons que nos archives, comme celles de l'INA par exemple, soient protégées. Il est possible de mettre en place une boucle de qualité pour améliorer les IA.
Enfin, je ne pense pas que les écrans soient le problème, mais plutôt ce que l'on y fait. La fondation EveryoneAI, qui est un groupe de chercheuses et de mères, s'est intéressée à ce sujet et a réalisé que les jeux éducatifs n'étaient pas tous adaptés aux jeunes enfants.
La réalité virtuelle est confondue avec la réalité physique et les contenus des écrans peuvent être mal assimilés par les enfants. Cette fondation fait un excellent travail qui doit aider ceux qui développent des applications éducatives à les rendre plus adaptées aux enfants et nous devons accompagner et soutenir ses initiatives.
Mme Florence Lassarade, sénatrice, vice-présidente de l'Office. - Des tranches d'âge sont-elles préconisées ?
M. Alexandre Sabatou, député, vice-président de l'Office, rapporteur. - Des tranches d'âge sont préconisées. C'est un point important. Jusqu'à un certain âge, les enfants ne distinguent pas le vrai du faux. Ces chercheuses ont par exemple constaté qu'en immergeant des enfants dans un univers virtuel dans lequel ils nagent avec des baleines, les enfants n'arrivent pas à faire la différence entre la fiction et la réalité. Ils pensent vraiment avoir nagé avec des baleines et cela s'inscrit dans leurs souvenirs. La régulation est ici très importante parce qu'on ne sait pas ce que ces usages donneront sur le long terme.
Mme Corinne Narassiguin, sénatrice, rapporteure. - Sur le sujet de la qualité des données, il n'est pas obligatoire d'essayer de créer des concurrents à ChatGPT pour toutes les applications. Il est possible de travailler à partir de systèmes plus simples et plus spécialisés, comme dans la santé. Ces IA sont beaucoup moins consommatrices d'énergie et permettent un développement spécifique.
Des efforts intéressants sont réalisés pour une gouvernance internationale, notamment au sein de l'OCDE. Des discussions se tiennent au niveau de l'ONU et nous recommandons qu'elles se poursuivent. Toutefois, nous sommes bien conscients qu'aucun cadre contraignant n'émergera à court terme, d'autant plus que les intérêts d'États comme la Chine et les États-Unis sont contradictoires. Néanmoins, ceci n'est pas incompatible avec une démarche européenne même si les innovations de l'IA vont très vite et que le rythme législatif est souvent inadapté. Nous avons aussi besoin de souplesse dans la façon de déployer la régulation, qui doit être un cadre de sécurité et de gestion des risques sans être un frein à l'innovation. Cet équilibre n'est pas évident à trouver. Mais nous avons pu le constater avec le RGPD. Lorsque l'Union européenne régule une filière, cela pousse les acteurs économiques à s'adapter pour pouvoir pénétrer le marché. Plus nous agissons pour faire évoluer les bonnes pratiques et imposer des standards, même non contraignants, mieux c'est pour tout le monde, au niveau mondial.
M. Alexandre Sabatou, député, vice-président de l'Office, rapporteur. - Il ne faut pas réguler directement la technologie, mais les usages et les finalités de la technologie. Par exemple, il faut réguler les deepfakes. Le filigrane est-il suffisant ? Ne faut-il pas menacer ceux qui diffusent des deepfakes de sanctions ?
M. Daniel Salmon, sénateur. - Merci aux rapporteurs pour ce travail. Pour moi, la question serait : « Et l'homme dans tout ça ? ». Nous dirigeons-nous vers un homme augmenté ou un homme diminué ? Aujourd'hui, avec le numérique conventionnel, le niveau scolaire baisse. Bien entendu, la cause est multifactorielle. Il n'y a pas que le numérique, il n'y a pas que les écrans, mais c'est un constat. Je suis inquiet. Tout cela est présenté comme inéluctable. Nous avons réussi, sur la génétique par exemple, à imposer des cadres. Nous sommes dans un monde de compétition et voilà la problématique. Nous avons peur d'être dépassés et, derrière le dépassement, pointe le risque d'asservissement. L'intelligence artificielle menace la diversité humaine qui peut disparaître au profit d'une espèce de pensée globale et uniformisée. L'intelligence artificielle perturbe complètement nos sens avec des manipulations qui génèrent des problématiques de santé mentale.
Nous sommes engagés dans une course pour limiter le réchauffement climatique et des technologies réclament sans cesse plus d'énergie. On peut rêver d'un monde de data centers entourés de small modular reactors (SMR). Toutefois, l'avenir de l'Homme est-il vraiment celui-ci ?
Je note des divergences sur la place de l'Europe. Il est possible de considérer que nous, Français, habitants du pays des Lumières, sommes au-dessus du reste du monde, mais je pense sincèrement que, pour avoir du poids, l'échelle européenne est la bonne. Cependant, je pense que nous avons des divergences sur ce sujet-là.
M. Stéphane Piednoir, sénateur, président de l'Office. - Vous avez presque paraphrasé le rapport qui indique que « l'homme augmenté est un humain diminué, il perd par son augmentation une part de son humanité ». C'est une question philosophique qui nous plonge dans un débat abyssal et effrayant.
M. Joël Bruneau, député. - Je vous ai entendu à plusieurs reprises parler de l'IA comme étant un outil. Cependant, l'intelligence artificielle est-elle vraiment un outil ? Jusqu'alors, les outils de l'humain servaient à prolonger son bras et son cerveau, à augmenter sa capacité personnelle. Mais il en gardait toujours le contrôle. L'IA pourrait s'autocommander. Par conséquent, est-ce toujours un outil ? Ma deuxième remarque porte sur la quantité d'énergie nécessaire au fonctionnement de l'IA. J'ai lu récemment qu'une simple recherche sur ChatGPT consomme dix fois plus d'énergie qu'une requête Google.
M. Patrick Chaize, sénateur, rapporteur. - En ce qui concerne l'impact environnemental, nous ne disposons pas d'études sérieuses à ce jour. Il y a de nombreuses estimations divergentes. Je me souviens d'un rapport sur l'impact environnemental du numérique qui prévoyait des conséquences totalement fantaisistes, notamment sur l'impact des courriels. Je crois qu'il nous faut une philosophie qui soit un équilibre entre les impacts négatifs et les externalités positives.
L'éducation est essentielle. Si, par exemple, nous utilisons l'IA pour effectuer une recherche et que cette recherche évite un déplacement polluant, alors le bilan s'équilibre.
M. Joël Bruneau, député. - Le sens de ma question portait plutôt sur les mesures mises en place pour anticiper la situation. Nous savons que l'IA va monter en puissance et que nous aurons besoin de plus en plus d'énergie. Nous devons nous y préparer et ne pas refaire la même erreur qu'avec la décarbonation des transports, car nous constatons, contrairement à ce qui avait été annoncé, que nous avons besoin de plus d'énergie pour électrifier le parc automobile. Je retiens de votre réponse l'absence d'études précises sur cette question.
Mme Corinne Narassiguin, sénatrice, rapporteure. - Le développement de l'IA est plus rapide que les innovations sur les processeurs, mais de nombreuses recherches sont en cours pour essayer de concurrencer Nvidia qui a bénéficié d'un heureux hasard. Au départ, cette entreprise développait des processeurs graphiques pour améliorer la qualité graphique des jeux vidéo. Ce n'est que dans un second temps que ses responsables se sont aperçus que ces processeurs étaient particulièrement adaptés au développement de l'IA. Lorsque nous nous sommes rendus chez Nvidia, j'ai interrogé nos interlocuteurs sur le problème de la consommation excessive d'électricité de leurs processeurs. Ils ne m'ont pas donné de réponses précises, mais je pense qu'ils investissent pour chercher à résoudre ce problème. De nombreuses entreprises, en Chine ou aux États-Unis, travaillent sur ce sujet. Nous avons en Europe des acteurs qui investissent ce champ, car il pourrait être celui de la prochaine révolution technologique. Quel est le prochain processeur affichant une faible consommation d'énergie ? Quel est le modèle ? Est-ce par un nouveau parallélisme des calculs par exemple ? De nombreuses possibilités existent, comme le quantique par exemple, dont nous ne savons pas quel est l'horizon de développement. Cependant, comme pour ChatGPT, nous pouvons être surpris et le phénomène peut aller vite. Il est difficile de prévoir les évolutions technologiques permettant des gains de puissance des processeurs et une moindre consommation d'énergie. Nous avons en France une carte à jouer, car nous avons eu de grands constructeurs et, avec les Allemands, nous possédons un vivier de talents. Nous pouvons investir ce sujet et celui du stockage des données pour gagner des positions dans la chaîne de valeur. Le stockage de données fait l'objet d'autres rapports, mais de nombreux développements sont en cours pour faire en sorte que les data centers soient plus écologiques et moins consommateurs d'énergie. Tous ces enjeux sont à prendre en compte dans le développement de l'IA.
Pour répondre à la première question, je confirme qu'aujourd'hui, l'IA est un outil. La question des risques existentiels attire beaucoup l'attention, mais je pense que les autres risques sont plus urgents. Si nous allons vers une IA générale, la question de savoir si l'IA est toujours un outil se posera. Il faut garder un humain dans la boucle, qui sert de garde-fou. Mais peut-être qu'un jour, on inventera une IA qui développera une conscience. Nous devons rester attentifs à ces évolutions, mais aujourd'hui, l'IA demeure un outil, un accélérateur à notre service.
M. Alexandre Sabatou, député, vice-président de l'Office, rapporteur. - L'IA existe depuis longtemps et une frontière s'est dessinée entre IA et automatisation. Par exemple, sur votre portable, de nombreuses fonctionnalités s'appuient sur l'IA comme la reconnaissance vocale ou demain la traduction instantanée. De mon point de vue, l'IA reste donc un outil.
Sur l'IA générale, deux courants de pensée émergent. M. LeCun estime que l'IA générative atteint un plafond de verre, car la technologie commence à ralentir. Il est possible de le constater dans les déclarations de Sam Altman qui décale la sortie des nouvelles versions de ChatGPT même s'il affirme qu'il n'y a pas de mur. Intégrer le plus de données possible n'a plus les mêmes effets que sur les versions précédentes des modèles. Le développement de l'IA pourrait donc ralentir, mais il est possible que ce ralentissement n'en soit pas un, grâce à de meilleures architectures et de meilleurs algorithmes.
M. Pierre Henriet, député, premier vice-président de l'Office. - Je pense que l'Office doit être un organisme d'évaluation permettant d'avoir une vision claire des politiques publiques dans le domaine de l'IA. Nous avons en France un acteur important : Mistral AI. Connaissez-vous ses objectifs au sein de l'écosystème global de l'intelligence artificielle ? Dans quelle mesure peut-il être une réponse au besoin de souveraineté nationale ou européenne ?
Pour développer une politique publique, nous devons fixer des priorités à l'échelle nationale et européenne. Quelles applications de l'IA seraient les plus pertinentes ? Florence Lassarade a évoqué le fait que les applications santé ne sont pas totalement déployées, ce qui ouvre de nombreuses perspectives.
Les acteurs que vous avez rencontrés vous ont-ils sensibilisés à des secteurs plus stratégiques que d'autres ? Très récemment, les États-Unis ont annoncé leur volonté de déployer l'IA au niveau de l'administration. Est-ce une perspective dans laquelle la France pourrait avoir un potentiel ? Disposons-nous d'acteurs suffisamment robustes ?
L'ambition de souveraineté est partagée politiquement. Toutefois, disposons-nous de moyens à la hauteur de nos ambitions ? Nous avons tous la réponse. Par conséquent, il me semble fondamental de pousser à la mise en place d'une politique publique ambitieuse, peut-être pas jusqu'à une loi de programmation de l'intelligence artificielle, mais en impliquant les parlementaires dans un travail d'élaboration de son contenu.
Mme Corinne Narassiguin, sénatrice, rapporteure. - Mistral AI a décroché dans les derniers classements internationaux. Entre les différents modèles, la compétition est permanente et il est difficile de rester dans la course. Mistral AI est un acteur français, il faut donc continuer à le soutenir. Mais la question importante est celle du développement d'un écosystème pour ne pas se focaliser sur un acteur. Considérant la vitesse des évolutions, il n'est pas pertinent d'imaginer créer un « Airbus de l'IA ». Toutefois, il faut considérer toute la chaîne de valeur, de la conception des processeurs en passant par les centres de données jusqu'aux applications. La réflexion autour d'une stratégie publique doit s'orienter vers la création d'un écosystème qui facilite les partenariats public/privé. Le privé doit trouver un intérêt à travailler avec la recherche publique. Il faut inciter à des synergies qui donneront naissance à des acteurs clefs.
Pour favoriser l'appropriation de l'IA, l'éducation est un levier important. Dans le monde économique, nous devons préparer la transition, y compris auprès des petites entreprises et des artisans. Des IA plus spécialisées peuvent procurer de vrais gains de productivité et avoir un impact économique positif.
Dans les administrations, je crois que notre problème est que nous pensons en silo. L'État développe par exemple des systèmes d'IA au niveau national, mais n'implique pas les collectivités locales. La cybersécurité et la gestion des données sont des enjeux importants pour les collectivités, or nous devons créer des canaux de travail en commun pour aider à l'appropriation de l'IA aux niveaux local et national. Il est possible d'impulser des politiques publiques malgré des moyens budgétaires contraints.
M. Alexandre Sabatou, député, vice-président de l'Office, rapporteur. - La France n'est peut-être pas dans la voiture de tête, mais nous sommes toujours dans la course. Il est important que tout le monde ait conscience de cette réalité. Le marché est vaste, il présente de nombreuses opportunités et les Américains ne pourront pas prendre toutes les parts de marché si nous sommes présents et que nous parvenons à développer un écosystème. Au début d'Internet, dans le monde francophone, nous étions plutôt sur Dailymotion que sur YouTube. Si Dailymotion avait été protégé, nous aurions peut-être encore un acteur important sur le territoire. Je pense également à la téléphonie avec l'exemple d'Alcatel. La France regorge de talents, à tel point que dans la Silicon Valley, il n'est pas rare d'entendre parler de « French mafia ». Si nous réussissons à convaincre nos compatriotes de rester sur notre sol en leur offrant des opportunités, je pense sincèrement que nous pourrons accomplir de grandes choses.
Nous devons investir plus sur les supercalculateurs, car les Américains y injectent énormément de moyens. Or les supercalculateurs sont essentiels pour développer des modèles permettant de rester dans la course. Mistral AI n'est pas un leader, mais c'est aujourd'hui la meilleure solution pour répondre à des demandes en français.
La langue implique une culture, une manière de penser qui se retrouve dans les réponses en raison des données utilisées. C'est pourquoi il est important que Mistral AI soit soutenu. Par ailleurs, nous nous inquiétons de constater qu'au fur et à mesure des levées de fonds, de plus en plus d'investisseurs étrangers prennent des parts de l'entreprise, ce qui à terme, pourrait faire basculer Mistral AI dans des mains étrangères. Nous devons soutenir nos entreprises, leur permettre de grandir et les protéger. Nous avons un problème d'investissement. C'est la raison pour laquelle je suis favorable à la création d'un fonds souverain sur les nouvelles technologies, en mobilisant l'épargne par exemple à la manière du Livret A.
M. Stéphane Piednoir, sénateur, président de l'Office. - Chers collègues, je vais maintenant soumettre à votre approbation le rapport et ses recommandations.
M. Daniel Salmon, sénateur. - La première recommandation qui stipule « (...) renoncer à l'approche exclusivement tournée vers les risques » peut laisser entendre que nous voulons mettre les risques sous le tapis. Cette idée me gêne mais je vote tout de même pour l'adoption du rapport.
M. Stéphane Piednoir, sénateur, président de l'Office. - Il existe en effet une approche autour du risque et des craintes que l'IA soulève, alors que la volonté des rapporteurs est de mettre en avant une approche transversale, avec les apports de l'IA dans notre quotidien, ses bienfaits, sans négliger les risques pour autant car ils sont réels. Je pense que le rapport est équilibré.
L'Office adopte, à l'unanimité, le rapport et en autorise la publication.