- Mardi 17 juin 2025
- Mercredi 18 juin 2025
- Audition de M. Luc Julia, concepteur de l'assistant vocal Siri et spécialiste de l'intelligence artificielle, directeur scientifique de Renault
- Audition du candidat proposé par le Président de la République aux fonctions d'administrateur général du Commissariat à l'énergie atomique et aux énergies alternatives (CEA) - Désignation d'un rapporteur
- Questions diverses
Mardi 17 juin 2025
- Présidence de Mme Dominique Estrosi Sassone, présidente -
La réunion est ouverte à 14 h 00.
Proposition de loi, adoptée par l'Assemblée nationale, de simplification du droit de l'urbanisme et du logement - Examen des amendements au texte de la commission
Mme Dominique Estrosi Sassone, présidente. - Nous examinons les amendements au texte de la commission sur la proposition de loi de simplification du droit de l'urbanisme et du logement.
M. Guislain Cambier, rapporteur. - Tout d'abord, nous allons vous présenter douze amendements et deux sous-amendements « remords ». Cinq sont rédactionnels ou de coordination. Les autres prévoient des ajustements au texte élaboré par notre commission.
L'amendement n° 216 a pour objet d'ajuster le dispositif relatif aux résidences hôtelières à vocation sociale (RHVS), en supprimant l'obligation de créer uniquement des logements familiaux en cas de transformation ultérieure de ces RHVS en logements pérennes, afin de laisser davantage de souplesse aux projets.
L'amendement n° 218 tend à élargir le dispositif visant à surmonter l'interprétation restrictive de la jurisprudence Sekler pour favoriser les surélévations et transformations de bâtiments existants, en permettant son application même hors zones couvertes par un plan local d'urbanisme (PLU).
Dans la même volonté de favoriser la densification, nous vous proposons, au travers de l'amendement n° 223, de faciliter l'évolution des lotissements-jardins en les faisant entrer dans le droit commun des lotissements.
Les amendements n° 219 et n° 220 visent à rétablir la possibilité pour les PLU d'exempter les logements locatifs intermédiaires (LLI) d'obligations en matière de stationnement, tout en conservant la suppression du plafond légal d'une place de parking par LLI. C'est un ajustement à un amendement de notre collègue Daniel Fargeot adopté en commission, et je le remercie de l'avoir accepté.
En ce qui concerne les établissements publics fonciers (EPF) également, nous vous proposons également, avec l'amendement n° 214, d'étendre de trois à dix ans le délai dans lequel ils doivent rétrocéder les biens acquis pour bénéficier de l'exonération à l'impôt sur le revenu des plus-values des particuliers en cas d'engagement du bénéficiaire à réaliser et à achever des logements dans un délai de quatre ans. Cela leur donnera plus de souplesse, notamment pour les projets complexes où l'acquisition du foncier se fait de manière fractionnée.
Sur la suggestion de nos collègues des Hauts-de-Seine, nous vous proposons de présenter, au nom de la commission, un amendement n° 221 visant à faciliter la requalification du quartier de La Défense, via la création d'un schéma-cadre d'aménagement et de planification ad hoc, pour coordonner et unifier les règles d'urbanisme applicables.
Nous vous proposons, en outre, un sous-amendement n° 224 à l'amendement n° 174 du Gouvernement relatif à la simplification des conventions d'utilité sociale (CUS). En effet, cet amendement revient sur l'association des collectivités aux CUS, ce qui est regrettable.
Enfin, le sous-amendement n° 222 à l'amendement n° 73 vise à retenir la précision selon laquelle les assouplissements sur la solarisation des parkings ne concerneront que les arbres existants, tout en maintenant la possibilité de recourir à d'autres solutions de production d'énergies renouvelables que les ombrières.
Mme Sylviane Noël, rapporteure. - En plus de nos amendements, 210 amendements et sous-amendements ont été déposés sur le texte de la commission, parmi lesquels 12 ont été retirés, 13 ont été jugés irrecevables au titre de l'article 40 de la Constitution par la commission des finances et, parmi ceux qui restent, 31 relèvent de la commission des lois.
L'application du périmètre au titre de l'article 45 que nous avons fixé en commission nous conduit à déclarer irrecevables à ce titre 20 amendements, notamment ceux qui traitent de la loi du 13 décembre 2000 relative à la solidarité et au renouvellement urbains (SRU), de la rénovation urbaine ou de règles de construction sans lien avec le texte. Deux amendements sont également irrecevables en application de l'article 41 de la Constitution.
Outre les nôtres, il nous restera donc 132 amendements à examiner, dont 13 émanent du Gouvernement.
Nous vous proposons de suivre la ligne de la commission, à savoir approfondir autant que faire se peut les simplifications et les assouplissements, tout en sécurisant les procédures là où cela s'avérait nécessaire. Ainsi, nous vous proposerons d'émettre un avis favorable ou de sagesse sur les amendements qui visent, premièrement, à lever les contraintes sur la construction, en amplifiant les dérogations pour favoriser la production de logements, notamment pour les dispositions relatives au stationnement, mais aussi à la renaturation ; en assouplissant certaines règles applicables sur le littoral ou dans les zones de montagne ; en prévoyant des procédures accélérées ou allégées pour certains types de projets ; en reportant l'obligation de solarisation pour les parkings de taille moyenne.
Il en sera de même pour les amendements qui tendent, deuxièmement, à renforcer l'ingénierie à disposition des collectivités, via le renforcement des sociétés publiques locales d'aménagement d'intérêt national (SPLA-IN) ou via des dispositions sur le recueil et les échanges d'informations sur le logement, ainsi que pour ceux qui ont pour objet, troisièmement, de créer des résidences à vocation d'emploi.
Nous vous proposerons également un avis favorable ou de sagesse sur les dispositions visant à permettre un meilleur contrôle des collectivités sur l'effectivité des règles de leur PLU ; à rétablir la condition de demandeur unique pour les permis multisites, car l'Association des maires de France et des présidents d'intercommunalité (AMF) nous a relayé les inquiétudes des maires sur un possible engorgement des services instructeurs.
Enfin, nous vous proposerons de soutenir quelques mesures ciblées visant à soutenir le logement social, notamment dans une logique de mixité fonctionnelle.
A contrario, nous vous proposerons de rejeter toutes les mesures tendant à relayer les demandes des promoteurs, mais qui pourraient faire perdre la main aux maires.
M. Yannick Jadot. - Nous examinerons les amendements d'ici à la séance. Malgré votre exposé, aussi précis soit-il, il est parfois compliqué de se faire une idée.
Mme Viviane Artigalas. - Nous nous abstiendrons, car certaines mesures auxquelles nous tenions ont reçu un avis défavorable.
EXAMEN DES AMENDEMENTS DES RAPPORTEURS
Article 1er A
L'amendement de coordination n° 211 est adopté.
Article 1er B
L'amendement rédactionnel n° 212 est adopté.
Article 1er
Les amendements n° 213 et n° 214 sont adoptés.
Après l'article 1er
L'amendement n° 221 est adopté.
Article 1er bis D
Le sous-amendement n° 222 est adopté.
Article 2
Les amendements n° 216 et n° 218 sont adoptés, de même que l'amendement de correction légistique n° 215.
Après l'article 2
Le sous-amendement n° 224 est adopté.
Article 2 ter
L'amendement rédactionnel n° 217 est adopté.
Après l'article 2 ter
L'amendement n° 223 est adopté.
Article 2 quinquies
L'amendement n° 219 est adopté.
Article 2 sexies B
L'amendement de suppression n° 220 est adopté.
EXAMEN DES AMENDEMENTS AU TEXTE DE LA COMMISSION
La commission a donné les avis suivants sur les amendements dont elle est saisie, qui sont retracés dans le tableau ci-après :
La réunion est close à 14 h 15.
Mercredi 18 juin 2025
- Présidence de Mme Dominique Estrosi Sassone, présidente -
La réunion est ouverte à 9 h 30.
Audition de M. Luc Julia, concepteur de l'assistant vocal Siri et spécialiste de l'intelligence artificielle, directeur scientifique de Renault
Mme Dominique Estrosi Sassone, présidente. - Nous avons le plaisir d'accueillir aujourd'hui devant notre commission M. Luc Julia, ingénieur informaticien et entrepreneur spécialisé dans l'intelligence artificielle (IA), auteur de plusieurs ouvrages sur ce sujet comme L'intelligence artificielle n'existe pas en 2019 ou encore, plus récemment, IA génératives, pas créatives en 2025.
Monsieur Julia, vous avez beaucoup travaillé dans la Silicon Valley et vous êtes l'un des cocréateurs de Siri chez Apple ; vous avez par la suite été directeur technique chez Hewlett-Packard (2011), puis directeur technique et vice-président pour l'innovation chez Samsung Electronics (2013-2021) avant de cumuler désormais les postes de directeur scientifique du groupe Renault depuis 2021 et de directeur IA de sa branche Ampere consacrée aux véhicules électriques.
Dans vos ouvrages, vous dénoncez un certain nombre d'idées sur l'intelligence artificielle dont vous considérez qu'elles sont fausses et qu'elles créent des attentes ou des craintes démesurées vis-à-vis de ces modèles.
Vous expliquez d'ailleurs que l'IA, dont l'histoire débute en 1956, a créé à plusieurs reprises par le passé d'immenses espoirs suivis de désillusions profondes, ce qui a alors conduit les entreprises et les chercheurs à s'en détourner pendant de longues années, ce que certains ont pu appeler « les hivers de l'IA ».
Depuis que l'entreprise OpenAI a mis à la disposition du grand public en 2022 son modèle d'IA générative et conversationnelle ChatGPT, l'IA s'est considérablement démocratisée, le nombre de ses usagers a explosé partout dans le monde et le sujet est désormais au coeur de nos préoccupations économiques, sociales, mais également éthiques tant son potentiel paraît considérable.
Dans vos ouvrages, vous insistez beaucoup sur l'idée que les IA ne sont pas créatives et que seuls les humains le sont, que ce ne sont que des boîtes à outils dont nous demeurons responsables. Pourriez-vous revenir pour nous sur ce sujet et nous préciser également pourquoi la création d'une intelligence artificielle générale, envisagée par certains acteurs du secteur, vous apparaît comme un mythe ?
Vous estimez que lorsqu'elles sont spécialisées dans certaines tâches, les IA sont des outils exceptionnellement performants qui peuvent libérer du temps pour les salariés ou leur donner la possibilité de réaliser des tâches nouvelles de façon beaucoup plus efficace qu'auparavant. Comment utiliser les IA de la façon la plus judicieuse possible pour améliorer la productivité du travail et de nos entreprises ? Considérez-vous que les entreprises françaises s'approprient suffisamment rapidement les modèles d'IA pour gagner en compétitivité, par rapport à ce que vous pouvez observer notamment aux États-Unis ?
Les impacts possibles de l'IA sur l'emploi suscitent beaucoup de craintes. Considérez-vous qu'il y a là une réelle menace ou bien que, comme lors des révolutions technologiques du passé, l'IA fera certes disparaître certains métiers, mais en créera d'autres, peut-être même davantage ? En tout état de cause, comment répondre à l'immense défi consistant à former à l'IA les plus jeunes, mais également les adultes qui sont d'ores et déjà confrontés à cette révolution du travail ?
Dans vos ouvrages comme dans vos déclarations vous vous montrez très critiques vis-à-vis des grands modèles de langage d'IA générative tels que ChatGPT qui reposent sur une course au gigantisme. Pourriez-vous nous expliquer en quoi ils posent problème selon vous, en particulier en matière d'impact environnemental, en raison de leur consommation d'eau ou d'énergie ? Peut-on et doit-on réserver les IA génératives à certains cas d'usage et utiliser des IA classiques plus frugales pour des requêtes plus simples ?
Quel regard portez-vous sur les investissements dans de gigantesques data centers annoncés ces derniers mois tant aux États-Unis, avec les 500 milliards de dollars du projet Stargate, qu'en France avec les 109 milliards d'euros annoncés lors du Sommet mondial sur l'IA de février dernier ?
Que pensez-vous du modèle chinois DeepSeek, développé pour un coût bien plus faible que celui de ChatGPT ?
Notre pays nous paraît avoir des atouts importants dans le domaine de l'intelligence artificielle, avec plus de 1 000 start-ups et une place de troisième pays au monde en nombre de chercheurs spécialisés en IA. Partagez-vous cet avis ? Quel regard portez-vous sur la place et la dynamique de la France dans la course mondiale à l'IA ? Que pourraient faire de plus les pouvoirs publics pour renforcer les maillons critiques de la chaîne de valeur de l'IA en France ?
Avant de vous céder la parole, je rappelle que cette audition fait l'objet d'une captation vidéo et est diffusée en direct sur le site du Sénat.
M. Luc Julia, concepteur de l'assistant vocal Siri et spécialiste de l'intelligence artificielle, directeur scientifique de Renault. - Votre introduction soulève de nombreuses questions, auxquelles je m'efforcerai de répondre, quitte à ce que vous y reveniez si j'en omettais. Je commencerai par un bref exposé de ce que j'entends par intelligence artificielle (IA), une définition qui ne correspond pas nécessairement à celle que diffusent les médias, particulièrement depuis l'avènement des IA génératives ces dernières années.
Comme vous l'avez rappelé, l'intelligence artificielle a officiellement vu le jour en 1956. Depuis près de soixante-dix ans, nous assistons à des vagues successives d'IA. Avant toute chose, il convient de le dire clairement : les IA ne sont que des mathématiques. C'est un point de départ essentiel. En 1956, il s'agissait de statistiques, mais cette approche n'a pas donné les résultats escomptés, conduisant au premier hiver de l'IA, car ses promesses n'ont pas été tenues.
Au cours des décennies suivantes, des années 1960 aux années 1990, un autre type d'IA a émergé : les IA logiques. Celles-ci ont connu un grand succès, notamment avec les systèmes experts. Pour mémoire, en 1997, l'un d'eux a battu le champion du monde d'échecs, Garry Kasparov, démontrant que les machines peuvent surpasser les humains dans une tâche précise - si l'on considère que jouer aux échecs est une marque d'intelligence.
Ma définition de l'IA est celle d'une boîte à outils, contenant des instruments aussi variés que des marteaux, des tournevis ou des scies. Il faut donc parler des IA au pluriel, car elles sont extrêmement différentes les unes des autres. Contrairement à l'idée reçue selon laquelle elles deviendront plus intelligentes que nous, j'affirme qu'elles le sont déjà depuis longtemps. Un outil, par définition, est supérieur à son utilisateur dans la tâche pour laquelle il est conçu ; sinon, ce n'est pas un outil. Par conséquent, les IA sont meilleures que nous dans les domaines spécifiques pour lesquels elles ont été créées, à l'instar de la machine qui a vaincu Kasparov aux échecs.
Dans les années 1990, les IA logiques ont été délaissées au profit d'un retour aux IA statistiques, favorisé par l'avènement d'internet et du big data. L'abondance de données a naturellement conduit à un regain d'intérêt pour les statistiques, donnant naissance au machine learning puis au deep learning dans les années 2000. Plus récemment, depuis 2017 sur le plan technique et novembre 2022 pour le grand public avec ChatGPT, nous voyons émerger les IA génératives. Celles-ci ne sont qu'une évolution des IA statistiques, capables de traiter un volume de données et de calculs bien plus important. Il ne s'agit donc pas d'une révolution technologique, mais bien d'une évolution de la capacité de traitement.
En revanche, la véritable révolution se situe dans l'usage. L'aspect extraordinaire des IA génératives réside dans le prompt, dans cette capacité pour l'utilisateur de s'adresser à la machine en langage naturel, sans aucune compétence en informatique ou en data science. En conséquence, n'importe qui peut faire n'importe quoi, et l'on observe d'ailleurs beaucoup de n'importe quoi !
Cette facilité d'accès explique l'adoption fulgurante de cette technologie : ChatGPT 3.5 a atteint 100 millions d'utilisateurs en seulement deux mois, en janvier et février 2023, un record dans l'histoire des technologies. Si cette accessibilité est une avancée, elle est également dangereuse, car elle permet des usages futiles et énergivores, comme les starter packs, qui ne servent strictement à rien, sauf à détruire la planète. Il importe donc de garder à l'esprit que les IA demeurent aujourd'hui de simples outils et doivent être considérées comme tels.
J'ajouterai une autre considération sur ces IA. En tant que franchouillard de base, je fais remonter leurs origines non pas à 1956, mais à 1642, lorsque le mathématicien et philosophe Pascal inventa la Pascaline. Cette première machine à calculer effectuait des additions et des soustractions de quatre ou cinq chiffres. Calculez donc en quatre secondes et sans erreur 1769 plus 498... La Pascaline y parvenait. Si j'étais chinois, j'évoquerais le boulier ; grec, j'aurais sans doute trouvé un artefact de l'Antiquité, car ces IA ont simplement l'air de réaliser des prouesses dans des domaines très circonscrits.
Cela nous amène à évoquer l'Artificial General Intelligence (AGI), ou intelligence artificielle générale, que certains, influencés par leurs propres intérêts, annoncent comme imminente. L'AGI ferait tout, tout le temps, et bien mieux que nous. Or, cette AGI est une impossibilité statistique tant que nous nous appuyons sur les mathématiques.
Je ne prétends pas prédire l'avenir pour les mille prochaines années et il est possible que le quantique ouvre de nouvelles perspectives. La différence fondamentale est que le quantique relève de la physique, tandis que les mathématiques ne sont qu'une approximation de celle-ci ; elles tentent de décrire le monde, mais ne sont pas le monde. Par conséquent, en statistiques, le 100 % n'existe pas, et la perfection est inatteignable.
Or parler d'AGI, c'est parler de perfection, d'une entité qui ferait tout, toujours mieux que nous. C'est mathématiquement impossible. Un exemple concret d'AGI, dans un domaine précis, serait la voiture autonome de niveau 5, que M. Musk nous promet depuis 2014. Pour rappel, il existe cinq niveaux d'autonomie ; le niveau 5 représente une autonomie complète, un véhicule capable de relier un point A à un point B sans jamais écraser personne sur son passage. Or, cette voiture n'existe pas et, je le démontrerai mathématiquement, elle n'existera jamais.
La voiture de niveau 4, elle, existe déjà sous la forme de robots taxis à San Francisco, Phoenix, Austin, Los Angeles ou encore en Chine. Toutefois, leur champ d'action est géographiquement limité, ce qui les exclut d'emblée du niveau 5, qui implique la généralité. De plus, ces quelque 300 robots taxis par ville ne sont pas pleinement autonomes : ils sont en réalité télécommandés. Ils ne le sont pas en permanence, dès qu'un problème survient - dans 0,1 % des cas -, un opérateur dans un centre de commande prend le relais avec un joystick et une caméra pour sortir la voiture de la difficulté où elle se trouve. Dès lors qu'une intervention humaine est nécessaire, il ne s'agit plus d'une autonomie de niveau 5. Les Tesla actuelles se situent au niveau 2.5, bien loin du but.
Les niveaux 3 et 4 arriveront, mais pourquoi le niveau 5 est-il impossible ? Une première démonstration, plus anecdotique, s'appuie sur la place de l'Étoile à 18 heures. Une voiture autonome, placée sur l'une de ses avenues, resterait bloquée ; en effet, sa force est aussi sa faiblesse : elle respecte scrupuleusement le code de la route. Or quiconque a déjà traversé la place de l'Étoile à cette heure sait qu'un tel respect rend la manoeuvre impossible.
En 2018, le président-directeur général de Waymo, l'entreprise qui opère ces robots taxis, lassé des déclarations d'Elon Musk, a fait don à la communauté scientifique de ses données de conduite : dix millions de miles de vidéos, pour accélérer l'arrivée du niveau 4, tout en affirmant l'impossibilité d'atteindre le niveau 5. En examinant ces vidéos, il ne m'a fallu qu'une vingtaine de minutes pour trouver une pépite, un fait qui prouve ce que j'avance.
La scène se déroule à Mountain View, la ville qui héberge le siège de Google, un endroit où il ne se passe jamais rien. Une voiture Waymo roule, puis s'arrête subitement ; elle avance de quelques mètres, s'arrête de nouveau, et répète ce cycle cinq ou six fois, jusqu'à ce que l'opérateur reprenne les commandes manuelles pour ne pas exaspérer l'automobiliste qui la suit. Le comportement de la voiture semble absurde, jusqu'à ce que l'on observe attentivement la vidéo. Sur le trottoir, deux piétons marchent dans la même direction que la voiture et celui qui est le plus proche de la chaussée porte, sur son épaule, un panneau stop.
Un humain, face à cette situation inédite, analyse le contexte, conclut qu'il ne s'agit pas d'un stop et continue sa route ; la voiture super intelligente et autonome, qui n'a jamais rencontré ce cas de figure non plus, ne voit qu'une succession de panneaux stop et elle obéit. Il existe une infinité d'exemples de ce type : le nombre de situations imprévues et absurdes est bel et bien infini. Dès lors qu'un seul cas non prévu, comme celui-ci, existe, la généralité devient impossible. Le débat est donc clos.
J'aborderai rapidement la question des impacts, notamment écologiques. Les anciennes IA logiques ne consommaient pratiquement aucune ressource. Leurs modèles, des arbres de décision conçus par des humains, ne requéraient que très peu d'électricité pour fonctionner. À l'inverse, les modèles statistiques apparus depuis les années 1990, avec le machine learning et le deep learning, exigent des ressources considérables pour leur entraînement, qui s'effectue dans des data centers. Chacun sait que ces derniers sont de grands consommateurs d'électricité et émetteurs de CO2, surtout depuis l'avènement du nouveau président des États-Unis qui adore le charbon et le pétrole. Vous évoquiez Stargate et ces 500 milliards de dollars, mais bien entendu, ce dernier ne dispose pas de cette somme. Bref : il s'agit de Donald Trump, il raconte n'importe quoi.
L'ampleur de cette consommation est telle que Microsoft envisage d'installer une petite centrale nucléaire à côté de chacun de ses data centers. Si la réglementation européenne peut nous prémunir contre de telles initiatives, la tendance de fond est claire : l'entraînement des modèles d'IA est extrêmement énergivore.
Ce qui est moins connu, c'est que les IA génératives consomment des ressources non seulement lors de la création des modèles, mais aussi lors de leur utilisation. Plus les modèles sont vastes, plus ils sont gourmands. Un modèle comme ChatGPT, avec ses 1 200 milliards de paramètres, a assimilé la quasi-totalité d'internet. Cela pose une limite physique : il n'existe plus de nouvelles données pour entraîner un modèle qui deviendrait ChatGPT 5. La seule solution serait d'utiliser des données synthétiques, générées par les IA elles-mêmes. Le risque est alors de les nourrir avec des informations souvent fausses, puisque le contenu d'internet est loin d'être entièrement fiable - j'espère que je ne vous l'apprends pas !
La particularité des IA génératives est donc cette double consommation. L'entraînement d'un modèle dure des mois et mobilise des processeurs graphiques (GPU), dont la demande a explosé et qui sont extrêmement énergivores, mais, et c'est là une nouveauté, l'inférence - c'est-à-dire l'utilisation de l'IA par l'utilisateur final - consomme également beaucoup d'énergie, car les modèles sont si vastes que chaque requête mobilise d'importantes ressources. Au-delà de l'électricité, il faut considérer la consommation d'eau douce, utilisée pour refroidir les milliers de machines qui se réchauffent mutuellement dans les data centers. On estime ainsi qu'entre dix et trente requêtes sur ChatGPT entraînent la consommation d'un litre et demi d'eau.
Par conséquent, les starter packs que certains s'amusent à créer ont consommé des milliers de litres d'eau. C'est une réalité invisible, car les data centers sont loin des yeux et loin du coeur. Sam Altman, le président-directeur général d'OpenAI, a lui-même reconnu cette consommation massive, l'estimant, de manière encore plus alarmante, à un litre et demi d'eau pour seulement trois requêtes. Nous parlons donc de millions de litres d'eau douce consommés chaque jour, un fait dont il est impératif d'avoir conscience.
J'en viens enfin à la question de la pertinence. On s'amuse de ces outils, on leur fait rédiger des résumés, pourtant, leur fiabilité est douteuse. En avril 2023, un avocat new-yorkais a demandé à ChatGPT de rédiger sa plaidoirie pour une affaire contre une compagnie aérienne. En quinze secondes, l'IA lui a fourni un texte complet, qu'il a transmis au juge. Ce dernier a d'abord salué la qualité de l'argumentaire avant de souligner un problème majeur : toutes les jurisprudences citées en référence étaient inventées. Les case numbers et les noms des juges semblaient plausibles, mais les décisions elles-mêmes n'existaient pas.
Cet avocat a commis deux erreurs : il n'a pas fourni de références dans sa requête initiale et, surtout, il n'a pas relu le résultat. Il faut le rappeler : le 100 % n'existe pas en la matière. En réalité, ces IA sont pertinentes à 64 %, un chiffre qui peut surprendre, car il signifie que dans 36 % des cas, elles racontent n'importe quoi.
Prouver ce chiffre est complexe, car la manière dont une question est posée oriente la réponse, la rendant subjectivement pertinente. Si vous demandez à une IA de prouver que la Terre est plate, elle le fera en s'appuyant sur des sites platistes. L'Université de Hong Kong a toutefois mis au point une méthode ingénieuse. Les chercheurs ont sélectionné des millions de faits communément acceptés comme vrais, tels que « 2 + 2 = 4 ». Ils ont ensuite demandé à l'IA si chacun de ces faits était vrai. Si l'IA répondait « c'est vrai », le résultat était juste. Si elle répondait « c'est faux », il était erroné. Le décompte final a révélé 64 % de réponses correctes.
Cela signifie que, de manière statistique, l'IA déclare qu'un fait avéré est faux dans 36 % des cas. Le phénomène ne va pas en s'arrangeant, car les IA s'auto-alimentent désormais avec leurs propres données synthétiques. Un récent rapport d'OpenAI, peu médiatisé, montrerait ainsi une perte de pertinence de 2 % en deux ans, car nous introduisons des données de mauvaise qualité dans les IA.
J'en ai terminé avec mon exposé et je suis maintenant à votre disposition pour vos questions.
M. Patrick Chaize, rapporteur pour avis de la mission « Recherche et enseignement supérieur ». - Ces dernières années, la France a su faire émerger de nombreuses start-ups dans le domaine de l'intelligence artificielle, dont un certain nombre sont parvenues à devenir des licornes.
S'il s'agit là de beaux succès, comment faire en sorte de permettre à davantage de ces jeunes entreprises de réaliser en France ou en Europe les levées de fonds dont elles ont besoin pour croître ? Comment éviter que nombre d'entre elles finissent par partir aux États-Unis ou par être rachetées par des entreprises américaines ?
Quel regard portez-vous sur la façon dont l'Union européenne régule l'intelligence artificielle, en particulier avec l'IA act ? Êtes-vous favorable à la mise en place d'une gouvernance mondiale de l'IA ? Pensez-vous qu'il s'agisse d'une perspective réaliste dans un contexte de rivalité exacerbée entre grandes puissances dans ce domaine ?
S'il convient de ne pas fantasmer des peurs excessives au sujet de l'IA, quels sont néanmoins les risques auxquels nous devons nous montrer attentifs ?
Enfin, concernant les mobilités, au-delà du véhicule autonome que vous avez déjà évoqué, quelles perspectives d'application de l'IA identifiez-vous pour les autres modes de mobilité ?
M. Luc Julia. - Concernant la place de la France et la qualité de nos chercheurs, il faut affirmer un point : nous sommes les meilleurs. Nous ne le disons pas assez et nous tendons à nous flageller, à nous considérer comme nuls. J'entends de l'étranger que notre système éducatif serait catastrophique et que nous connaîtrions un nivellement par le bas. Cela me fatigue, car c'est faux. Nous sommes les meilleurs, point.
Ce n'est pas une simple opinion. L'IA n'étant que mathématiques, les médailles Fields en sont une preuve : la France est le pays qui en détient le plus au monde. Cela signifie que nous sommes les meilleurs en mathématiques et, par conséquent, les meilleurs en IA. C'est pourquoi, dans la Silicon Valley, de nombreux experts français sont présents. Au total, nous sommes 55 000 Français là-bas, dont 50 % de boulangers et 50 % d'informaticiens. Si les plus anciens, comme Yann Le Cun ou moi-même, sommes partis il y a une trentaine d'années, l'écosystème a changé. Depuis 2013, avec la French Tech et Bpifrance, des pépites se forment en France et le goût d'entreprendre est revenu. Notre excellence est reconnue : dans la Silicon Valley, les informaticiens français spécialisés en IA sont très recherchés et, dans la plupart des grandes entreprises technologiques comme Meta, Netflix ou Google, le responsable de l'IA est français.
Cessons donc de nous flageller et répétons-le : nous sommes les meilleurs.
Le problème est ailleurs, notamment dans le financement. Nous manquons cruellement de capital-risque en France et en Europe. Ce n'est pas l'argent qui fait défaut : 600 milliards d'euros dorment sur les livrets A et 1 600 milliards dans les assurances-vie. Aux États-Unis, les fonds de pension financent les venture capitalists (VC), les capital-risqueurs ; en France, les fonds de VC, que je ne critique pas, car ils font avec les moyens dont ils disposent, lèvent en moyenne 200 à 300 millions d'euros. Avec de telles sommes, il est impossible de réaliser des investissements de 100 millions ou plus, qui sont pourtant nécessaires au développement d'une scale-up, c'est-à-dire d'une start-up en phase de développement qui doit changer d'échelle, comme nous l'avons vu avec Mistral.
Aucun VC français ou même européen ne peut aujourd'hui soutenir seul une telle croissance. C'est dommage, car l'argent existe aussi au sein des grandes entreprises privées. La France compte parfois parmi ses citoyens la première fortune mondiale. Pourtant, contrairement à leurs homologues américaines, ses entreprises n'investissent pas dans les jeunes pousses.
Aux États-Unis, les grands groupes participent activement à l'écosystème via les dispositifs de VC Corporate. À titre d'exemple, en 2019, Google a racheté trois cents entreprises. Je n'ose demander combien LVMH ou Dassault en ont acquis la même année. Les entreprises françaises profitables n'investissent pas dans nos pépites.
Le coeur du problème est notre rapport au risque. La culture américaine apprend, dès l'enfance, à monter sur la table pour dire n'importe quoi. On ose, on prend la parole sans honte. En France, l'erreur est sanctionnée : au cours préparatoire, l'élève qui lit un mot de travers est mis au coin ; en entreprise, celui qui commet une petite erreur est mis au placard. Aux États-Unis, le risque est récompensé ; l'échec y est perçu comme une étape de l'apprentissage. On parle souvent de la culture de l'échec : échouer, c'est apprendre, et cela réduit les chances de reproduire la même erreur.
Cette culture nous fait défaut en Europe. Je n'ai pas de solution, mais je maintiens que notre système éducatif est l'un des meilleurs, car il forme les meilleures élites au monde en mathématiques, même s'il laisse sans doute de nombreuses personnes au bord du chemin. Le prix à payer est-il cette incapacité à prendre des risques, à monter sur la table pour faire rêver avec des projets prospectifs ? C'est possible. Il serait sans doute souhaitable d'apprendre à faire preuve de plus de souplesse quand cela ne se passe pas très bien.
J'en viens à la régulation, et sur ce point, je ne serai pas sympathique. L'AI Act est une aberration totale. Je ne sais pas si vous avez participé à son élaboration, mais avec ce texte, voulu par le commissaire Thierry Breton en février 2023 dans un esprit de précipitation face aux IA génératives, on a fait n'importe quoi.
Cette loi classe les usages de l'IA selon quatre niveaux de risque, allant de l'acceptable à l'interdit. C'est la catégorie interdit qui me gêne profondément. Si l'on avait interdit des technologies en comprenant leurs enjeux, la démarche aurait été louable, mais cela n'a pas été le cas. Les décideurs n'ont rien compris et, surtout, n'ont pas consulté ceux qui comprenaient ; ils ont placé dans le même sac des technologies potentiellement intéressantes pour l'avenir, simplement parce qu'elles faisaient partie d'un ensemble jugé a priori dangereux, sans aucune analyse fine de leurs applications possibles.
Ainsi, nous nous tirons une balle dans le pied en matière d'innovation. La granularité de ces catégories est bien trop grossière. Or, le problème avec Bruxelles, c'est qu'une fois qu'une technologie est placée dans une catégorie, il faut cinq à dix ans pour l'en faire sortir, tant la flexibilité de l'institution est faible.
Plus cocasse, ou plutôt plus affligeant encore, la plupart des directives de l'AI Act entrent en contradiction avec le règlement général sur la protection des données (RGPD). C'est extraordinaire, dans la mesure où ces deux textes émanent de la même Union européenne. Un contentieux oppose ainsi actuellement Apple à Meta, et je peux vous annoncer qu'il durera dix à vingt ans tant il est insoluble : d'un côté, Meta invoque l'AI Act pour exiger d'Apple l'accès à toutes les fonctionnalités de l'iPhone ; de l'autre, Apple rétorque que le RGPD le lui interdit. Bonne chance pour résoudre ce cas.
Nous allons nous retrouver face à des batailles juridiques extraordinaires à cause de l'aberration qu'est l'AI Act. La conséquence est que les entrepreneurs français, conscients de ces blocages, ont déjà décidé de s'entourer d'avocats avec l'intention de ne pas respecter ce texte. Et ils ont raison.
M. Franck Montaugé. - Merci de votre présentation et de la liberté de ton et de pensée qui vous caractérise, et qui doit animer tous ceux qui travaillent sur ces systèmes.
Je souhaite poser une question un peu en marge. Depuis l'avènement des données numériques, le pouvoir est dans le code. Lawrence Lessig titrait d'ailleurs un célèbre article de la fin du siècle dernier : Code is law. Le développement de l'IA et ses potentialités ne font que renforcer ce constat.
Montesquieu, théoricien de la séparation des pouvoirs, affirmait que « pour que l'on ne puisse abuser du pouvoir, il faut que, par la disposition des choses, le pouvoir arrête le pouvoir ».
Nous commençons à mesurer les effets, positifs comme négatifs, de l'IA utilisée comme outil dans la vie publique. Considérez-vous que, dans le domaine démocratique, l'IA pose un problème d'abus de pouvoir ? Si oui, quel devrait être le rôle du politique, que nous incarnons ici ?
Enfin, l'IA peut-elle être employée comme une vigie pour mettre en évidence les dérives et les abus dont elle peut aussi, par ailleurs, être la source ou le moyen ?
M. Rémi Cardon. - Je vous poserai deux questions. La première est très directe : l'assistant vocal Siri nous écoute-t-il ? Cette interrogation est liée à une affaire en cours concernant des enregistrements qui violeraient le RGPD.
Ma seconde question, sans monter sur la table, pour reprendre votre métaphore, est la suivante : l'IA nous permettra-t-elle de travailler mieux afin de vivre plus ?
M. Éric Dumoulin. - Merci de cette présentation géniale.
Des pays comme la Finlande ont initié une forme d'éducation de masse à l'IA, visant au moins 1 % de leur population. L'objectif est double : permettre une meilleure maîtrise de l'outil, mais aussi une meilleure compréhension de ses dérives potentielles. Quel plan d'action envisageriez-vous pour la France, que ce soit dans les lycées, les universités ou dans le cadre de la formation professionnelle, afin de mieux appréhender les difficultés que vous avez mises en évidence ?
M. Luc Julia. - Sur le pouvoir de l'IA, ma réponse est simple : comme tout outil, l'IA peut être utilisée à bon et à mauvais escient. Un marteau plante un clou, mais il peut aussi vous frapper la tête. Contrairement à ce que mes propos précédents auraient pu laisser entendre, je suis favorable à la régulation. Il faut réguler, mais il faut le faire en comprenant les enjeux, et non a priori. Réguler a priori, comme le fait l'AI Act, est une bêtise absolue.
À l'inverse, la régulation a posteriori, qui est la norme aux États-Unis, laisse parfois des victimes sur le bord de la route. Il existe un juste milieu : la régulation doit être confiée à des experts qui maîtrisent le sujet. L'IA peut donc être à la fois un juge impartial et un instrument pour déconstruire ces mécanismes. Au final, c'est à la régulation et à l'éthique de guider les choix de chacun d'entre nous, des entreprises et de l'État.
Concernant une régulation mondiale, je suis sceptique sur l'efficacité d'une institution comme l'ONU. En revanche, l'histoire nous offre des exemples pertinents. Dans les années 1960 et 1970, les accords Salt sur l'armement nucléaire, bien que bilatéraux entre l'URSS et les États-Unis, ont fonctionné et ont freiné une course qui nous menait à la destruction. Une régulation mondiale est donc compliquée à mettre en place, mais une prise de conscience mondiale est parfois possible. Cet équilibre relève d'une décision qui nous revient, et qui revient in fine au régulateur, quel que soit son niveau.
Pour répondre à la question suivante : non, Siri ne nous écoute pas. Il est physiquement impossible d'enregistrer et de stocker en permanence tout ce qui est dit. L'idée même est absurde. Les actions en justice actuelles reposent sur un autre mécanisme. Lorsqu'une phrase n'est pas reconnue par Siri avec un certain seuil de confiance - par exemple 70 % -, un extrait est isolé, anonymisé et envoyé à des équipes humaines dont le travail consiste à l'écouter pour comprendre pourquoi il a été mal interprété et comment améliorer le modèle pour l'avenir.
Ce processus est rare au regard des 500 millions d'utilisateurs quotidiens de Siri. Les lanceurs d'alerte qui se sont plaints d'avoir eu à écouter des conversations privées ne faisaient en réalité que leur travail. Ce n'est pas une surveillance systématique, mais une analyse ciblée sur des cas d'échec du système, dans un but d'amélioration. Quoi qu'il en soit, Apple n'a aucune chance de gagner ces procès, c'est pourquoi l'entreprise cherche aujourd'hui des arrangements dans ces affaires.
Concernant votre deuxième question, l'IA est un outil qui nous permettra de dégager du temps. Il faut observer les révolutions industrielles précédentes. Les métiers disparaissent rarement ; ce sont les tâches au sein de ces métiers qui évoluent. Certaines d'entre elles sont supprimées, mais d'autres sont ajoutées, ne serait-ce que la maîtrise de l'outil lui-même, et un équilibre se crée. Dans les métiers à forte composante humaine, l'IA permettra de renforcer les relations. On se plaint que le médecin ne nous accorde que quelques minutes. Demain, grâce à ces technologies, il aura plus de temps pour l'essentiel. On prédisait, il y a dix ans, la disparition des radiologues ; non seulement ceux-ci n'ont pas disparu, mais ils ne disparaîtront pas et auront davantage de temps pour discuter avec le patient des traitements possibles. L'élément humain, l'empathie, qui est au coeur de leur profession, pourra ainsi réapparaître. Je suis optimiste : dans tous les métiers, nous pourrons dégager du temps pour nous concentrer sur l'essence même de notre activité.
J'en viens ainsi à votre question sur l'apprentissage. L'erreur monumentale serait de croire qu'il ne faut plus apprendre les métiers. Il est au contraire impératif de ne pas cesser de le faire, car l'IA ne sait rien, ne comprend rien et n'invente rien. Elle ne fait qu'exécuter ce qu'on lui demande. L'expertise métier, que l'on soit boulanger ou ingénieur, reste fondamentale.
En revanche, il faut effectivement apprendre à se servir des outils, au risque d'être mis sur la touche, car ceux-ci permettent de gagner en temps, en précision et en qualité. La bonne nouvelle, et c'est pourquoi une formation de masse comme en Finlande me semble aujourd'hui presque inutile, c'est que les nouveaux outils d'IA générative ont un temps d'apprentissage proche de zéro. Les 100 millions d'utilisateurs qui ont adopté ChatGPT en deux mois l'ont fait parce que l'interface est le langage naturel. Il suffit de parler. L'apprentissage de l'outil lui-même est donc très simple, même si certains d'entre eux sont plus complexes que d'autres.
Il n'est donc pas nécessaire que tout le monde devienne informaticien ou apprenne des langages de programmation ; cela ne sert à rien. Le véritable enjeu, et le danger pour les nouvelles générations, est la tentation de ne plus apprendre un métier en se disant que l'IA s'en chargera. Une IA peut générer du code, mais sans un expert pour le corriger, ce sera très mauvais. Faisons donc très attention à ne surtout pas perdre nos compétences.
M. Yannick Jadot. - Votre exposé tend à démontrer qu'il n'y a pas de véritable révolution technologique et qu'un outil reste politiquement neutre, son usage seul important. Je m'interroge toutefois : ne sommes-nous pas entrés dans une ère qui, en matière de démocratie, soulève d'immenses questions ?
Le développement de ces outils, bien que parfois soutenu par des fonds publics, est quasiment exclusivement privé. Or les acteurs qui dominent cette économie développent une pensée politique. Le fait qu'une importante partie de la Silicon Valley ait soutenu Donald Trump n'est neutre ni technologiquement ni, à l'évidence, démocratiquement. Derrière ces technologies se cachent aussi des appétits libertariens qui visent à la suppression de l'État et de toute forme de régulation, une posture éminemment politique.
Lorsque l'IA permet, bien plus que tout ce qui existait auparavant, de collecter les émotions, de sonder les intimités et de chercher à dicter des comportements, elle ne fait pas que perturber, elle percute de plein fouet nos fonctionnements démocratiques. Les initiatives du commissaire Breton ne sont peut-être pas les meilleures possible, mais elles témoignent d'un décalage fondamental : notre temps démocratique est déconnecté du rythme de vos inventions. Le processus démocratique exige un débat éclairé, une délibération citoyenne, un vote et une mise en oeuvre. Or vous avez déjà inventé la génération technologique suivante avant même que nous ayons pu réguler la précédente.
L'absence actuelle d'une régulation puissante et d'une capacité à porter ce débat au-delà du simple technosolutionnisme - l'idée que l'on devrait se satisfaire d'investir des milliards dans des data centers pour être dans le jeu - nous détourne des vrais sujets.
Vous avez évoqué une forme de neutralité technologique, mais cette technologie-là n'est plus du tout neutre politiquement et, je le répète, elle heurte de plein fouet nos démocraties.
Mme Amel Gacquerre. - Permettez-moi tout d'abord de saluer votre approche de l'IA, qui n'est ni dithyrambique ni alarmante, mais qui remet les choses à leur juste place : l'humain, l'outil et la nécessité pour le premier de garder la main sur le second. Vous avez évoqué l'usage, et c'est précisément sur ce point que je souhaite vous interroger.
J'aimerais connaître votre analyse sur l'usage massif des chatbots. Nous avons mentionné ChatGPT, mais il existe aussi des alternatives issues de l'excellence française, comme Le Chat. On sait aujourd'hui qu'un quart de nos adolescents utilisent ces chatbots pour faire leurs devoirs. Cet usage, qui touche aussi nos administrations, m'inquiète fortement. Je m'interroge sur son impact sur l'esprit critique de nos enfants, sur leur capacité et même sur leur volonté d'apprentissage.
Quels risques identifiez-vous pour l'intelligence humaine et pour nos démocraties, et, face à ces enjeux, quelle direction devrions-nous prendre ?
Mme Anne-Catherine Loisier. - Je souhaite revenir sur l'outil IA pour connaître votre vision. Estimez-vous que l'appareil industriel français et européen s'en est emparé comme d'un levier de compétitivité ? Dans notre volonté de réindustrialisation, et plus spécifiquement dans l'industrie automobile, l'IA est-elle, selon vous, suffisamment optimisée ?
Permettez-moi également une remarque : pour votre information, le législateur travaille actuellement sur des textes relatifs à la chaleur fatale et à l'usage de l'eau dans les data centers. Ces travaux, bien qu'imparfaits, visent à favoriser une économie circulaire en la matière.
Enfin, votre réflexion sur le quantique m'interpelle. Sommes-nous suffisamment engagés dans ce domaine ? La France y dispose-t-elle d'une plus-value ? Ne s'agit-il pas d'un secteur sur lequel nous devrions renforcer notre intérêt ?
M. Luc Julia. - Vous avez raison, monsieur Jadot : les IA actuelles sont des IA de la côte ouest américaine, elles pensent comme les habitants de la côte ouest et sont politiquement orientées par des personnalités comme Sam Altman ou Elon Musk, que je juge peu respectables sur le plan politique.
C'est la raison pour laquelle je milite depuis longtemps pour une reconnaissance du biais. Les IA d'aujourd'hui sont biaisées, ne serait-ce que parce que 70 % d'internet est américain. Elles penchent donc naturellement du côté de la côte ouest. Si vous demandez aujourd'hui à n'importe quelle IA, que ce soit Gemini ou ChatGPT, qui a inventé l'aviation, elle vous répondra que ce sont les frères Wright en 1903. Or dans cette assemblée, nous savons tous qu'il s'agit de Clément Ader, treize ans plus tôt, en 1890. Ces IA ne donnent pas cette réponse, car elles raisonnent comme un petit écolier de la côte ouest.
Ces biais sous-jacents vont, comme vous le dites, percuter les idées reçues de certains et peuvent alimenter, par exemple, l'élection de M. Trump.
Grok, l'IA d'Elon Musk, est une aberration complotiste. Ses réponses sont conçues pour vous faire plaisir, et plus la question est complotiste, plus l'IA abondera en ce sens, car sa base de données est X, l'ancien Twitter. Elle produit des aberrations totales, mais c'est le résultat d'un choix de M. Musk, qui poursuit un agenda politique.
Le problème est donc réel, et ma solution est de militer pour le biais, c'est-à-dire de l'assumer. Il est impossible de « débiaiser » ces IA. Certains data scientists affirment qu'il faudrait idéalement des données non biaisées pour aboutir à une vision commune, mais une telle chose n'existe pas. Je souhaite donc la création d'IA intentionnellement biaisées, françaises, européennes, africaines, singapouriennes, qui fourniront les réponses que donnerait un petit Français ou un petit Africain.
Aujourd'hui, l'Afrique est effacée du web. Ses cultures, souvent orales et non écrites, y sont inexistantes. Par conséquent, il n'existe pas d'IA africaine. Nous avons bien Le Chat en France, mais même ce modèle commence à pencher vers la côte ouest, ce qui n'est guère étonnant, puisque Microsoft a désormais la main sur lui.
Vous avez également raison sur la nécessité de réguler. Comme je l'ai dit, je suis pro-régulation, mais une régulation qui intervient, comme vous le suggérez, après le débat démocratique, et non avant. Le problème des décideurs de Bruxelles est d'avoir pris des décisions a priori, en se fondant sur des présupposés qui ne me semblent pas être les bons.
Je suis favorable au débat démocratique et à une approche que l'on nomme grassroots aux États-Unis, selon laquelle les citoyens eux-mêmes, après avoir utilisé une technologie, expriment leurs limites éthiques et demandent à leurs représentants d'agir en conséquence. Pour finir sur une note positive, il existe des IA super-spécialisées et vertueuses. Je suis administrateur de Radio France et je peux ainsi témoigner que le groupe a créé une IA locale dédiée au fact checking qui, sans être parfaite, donne des résultats très intéressants.
La question sur les jeunes est intéressante. J'interviens beaucoup dans les écoles, pour rassurer des enseignants qui sont souvent effrayés. Ils partagent votre vision : des élèves qui utilisent l'IA pour faire leurs devoirs, qui ne réfléchissent plus et qui deviennent des idiots. Cela rappelle le film Idiocracy, qui dépeint une société d'idiots ayant entièrement confié leur pensée à des robots, tandis qu'une caste supérieure, réellement intelligente, contrôle ces mêmes robots.
Créer des idiots est aisé. Les États-Unis y sont parvenus : 50 % de leur population vote pour M. Trump. Ce n'était pas un hasard, mais un projet délibéré, initié dans les années 1980 par le premier président Bush, qui a démantelé le système éducatif. On a ainsi fabriqué des électeurs prêts à voter pour M. Trump trente ans plus tard.
Lorsque j'interviens auprès des enseignants, je leur propose un exercice. Il s'agit de dire aux élèves : « Aujourd'hui, nous allons utiliser ChatGPT ». L'enthousiasme est général. La première étape consiste à créer un prompt pour générer la biographie de Victor Hugo en deux pages. Le prompt est simple à formuler. Quinze secondes après l'avoir soumis, le texte apparaît.
L'élève croit alors que le travail est terminé ; c'est là, au contraire, qu'il commence. L'étape suivante est une chose incroyable : la relecture. Le texte généré affirme : « Victor Hugo est né le 18 mars 1802 à Besançon ». Or, il est né en février. Cela commence mal. L'exercice suppose bien sûr que l'enseignant maîtrise son sujet, car il est essentiel de démontrer que le sachant sait. L'enseignant devient alors la clé, la référence ; il va démonter le texte de ChatGPT et, par là même, les certitudes des élèves.
En se rappelant le taux de pertinence de 64 %, on peut s'attendre à trouver environ cinq erreurs dans ces deux pages. En les identifiant une par une, l'élève réalise qu'il ne peut pas faire confiance aveuglément à l'outil. Il découvre alors la nécessité du fact checking, c'est-à-dire l'importance de consulter d'autres sources, comme une encyclopédie papier. C'est par une telle prise de conscience que l'esprit critique, dont vous parliez, peut naître et se développer.
Si le sachant assume son rôle, le respect de l'enseignant s'établit, tandis que la déférence envers l'outil diminue, créant une dynamique de classe bien plus saine. Le problème actuel est que cette démarche n'est pas adoptée : beaucoup d'enseignants baissent les bras, se sentent dépassés par l'outil et ne savent plus comment réagir. Face à ce sentiment d'impuissance, la solution est pourtant simple : il faut réfléchir.
Concernant l'adoption de l'IA par l'industrie, les chiffres sont révélateurs. En 2023 et 2024, les entreprises du CAC 40 ont lancé en moyenne 170 proofs of concept (POC) basés sur les IA génératives. C'est un chiffre important. Un grand nombre de ces expérimentations ont échoué, car elles se sont révélées chères et complexes. Sur ces 170 POC, seuls dix en moyenne ont été réellement mis en oeuvre. Ce taux de 5 % peut sembler faible, mais dans le domaine de l'innovation, c'est un bon résultat.
Ce cycle suit parfaitement la courbe de Gartner de la hype : une technologie émerge, atteint un pic d'enthousiasme - ce fut le cas pour l'IA générative début 2023 -, puis vient la phase de désillusion, le drop, où l'on constate ses limites, ses erreurs et ses hallucinations. Enfin, un rebond mène à une stabilisation et à une adoption pragmatique par l'industrie et le grand public, à un niveau moyen, moins élevé que le pic précédent.
Habituellement, une technologie met entre cinq et dix ans pour parcourir cette courbe, si elle y parvient - le metaverse, par exemple, est resté bloqué très en amont. Le caractère exceptionnel de l'IA générative est d'avoir accompli ce cycle en seulement dix-huit mois, pour parvenir à des applications concrètes. Cette rapidité s'explique, une fois de plus, par le prompt, qui a rendu sa prise en main très facile.
Dans l'industrie, un bon nombre d'innovations issues de ce processus ont été mises en oeuvre dans les usines, souvent pour les cols blancs, par exemple en matière d'achats. Le secret de ces implémentations réussies réside dans la spécificité : alors qu'une IA généraliste atteint 64 % de pertinence, une IA spécialisée, nourrie avec les données propres de l'entreprise, peut atteindre 98 % à 99 % de pertinence. Il faut toujours relire les résultats, mais un tel niveau de fiabilité permet d'avoir confiance en l'outil.
Dans l'industrie automobile, nous avons appliqué ce principe et la nouvelle Renault 5 est équipée d'une IA générative que mon équipe a intégrée en quelques mois seulement ; les premiers chiffres d'utilisation montrent que cette fonctionnalité est un véritable succès, et nous en sommes très fiers.
J'en viens au quantique. Je suis mathématicien, et non physicien, et je dois admettre ne rien y comprendre, bien que j'essaie. Le problème est que même les physiciens honnêtes qui travaillent dans ce domaine avouent leur incertitude : ils ne savent pas si cette technologie fonctionnera un jour. Ils expérimentent.
Deux grandes écoles s'affrontent. La première, celle d'IBM et de Google, travaille à une température de -273 degrés Celsius, proche du zéro absolu, pour stabiliser les atomes. Cette approche, bien que stable, est si énergivore qu'elle me semble être une impasse. Les Américains, qui sont maintenant peu soucieux des questions énergétiques, persistent toutefois dans cette voie.
La seconde école opère à des températures un peu moins froides, mais se heurte à un manque de stabilité des atomes. Pour compenser, elle a recours... aux mathématiques et aux statistiques. Mon domaine de compétence revient donc en jeu, mais cela signifie que les résultats resteront de nature statistique et donc très complexes.
Les acteurs français sont nombreux et compétents ; nous ne sommes pas les pionniers, mais notre travail est intéressant. Honnêtement, personne ne sait quand ni même si, le quantique aboutira ; nous ne savons pas non plus à quoi il pourra servir, tant une simple addition y est d'une grande complexité. Il faut garder à l'esprit que les mathématiques ne sont pas de la physique.
M. Bernard Buis. - Les voitures connectées collectent une grande quantité de données, quelle est votre position sur leur propriété : doit-elle revenir au constructeur, à l'utilisateur ou à une entité tierce ?
M. Henri Cabanel. - Merci de votre approche très pédagogique. Vous l'avez rappelé, l'IA peut être le meilleur comme le pire, et notre rôle d'élus est d'éviter ce pire, ce qui passe par la régulation et donc par la loi. Vous avez évoqué la tentative de l'ancien commissaire européen, M. Breton, qui, selon vous, a échoué.
Ma question est la suivante : estimez-vous que les parlementaires que nous sommes ont réellement saisi la transformation culturelle que l'IA impose, une condition nécessaire pour bien légiférer ? Autrement dit, comment pouvons-nous, nous qui ne sommes pas des experts et qui ne maîtrisons pas toujours pleinement le sujet, parvenir à bien réguler une technologie que nous ne comprenons pas dans toutes ses dimensions ?
M. Daniel Fargeot. - Merci, monsieur le professeur, votre clairvoyance cartésienne est réconfortante !
Le Sénat étant le représentant des collectivités territoriales, je souhaite vous interroger sur les services publics. Ces derniers doivent s'adresser et s'adapter à tous. Estimez-vous que l'utilisation de l'IA dans leur fonctionnement à destination des usagers soit en mesure de répondre à cet impératif d'universalité ?
Par ailleurs, vous avez souligné le coût écologique de ces outils, indiquant que la génération d'une centaine de mots sur ChatGPT consomme une quantité d'eau significative. Comment concilier l'essor de cette technologie avec notre ambition collective en matière de transition écologique ?
Pour conclure sur une note plus légère, j'ai demandé à mon nouvel ami ChatGPT sa vision de Luc Julia, et je dois dire que je la partage !
M. Christian Redon-Sarrazy. - Merci, monsieur Julia, de vos approches disruptives, qui font du bien. Que répondez-vous aux chercheurs qui affirment qu'il existe une probabilité de 70 % à 100 % que l'IA cause la fin du monde d'ici à cent ans ?
Mme Dominique Estrosi Sassone, présidente. - J'ajoute que vous ne nous avez pas encore répondu au sujet de DeepSeek.
M. Luc Julia. - S'agissant de la propriété des données collectées par les voitures, la réponse est claire : elles appartiennent à l'utilisateur. C'est à lui de consentir, ou non, à ce que des services, qu'ils soient proposés par le constructeur ou par des tiers, les utilisent. Il pourra ainsi opter pour des services importants, liés à la sécurité par exemple, et refuser ceux qui relèvent davantage du divertissement.
Sur votre capacité à légiférer, le simple fait que je sois devant vous aujourd'hui est une bonne nouvelle. Vous écoutez, vous apprenez, et c'est essentiel. Je vous encourage à poursuivre cette démarche avec d'autres experts, comme Yann Le Cun, et non avec des personnalités qui disent n'importe quoi, comme Laurent Alexandre.
Dans les services publics, l'IA peut évidemment représenter une aide précieuse. La facilité d'usage des interfaces en langage naturel, voire par la voix, la rendra accessible à un plus grand nombre de personnes. Il faudra toutefois veiller à orienter correctement l'outil pour garantir la pertinence des réponses et éviter qu'il ne divague.
Quant à la transition écologique, comme nous l'avons évoqué, elle exige de la vigilance et une meilleure éducation sur ces sujets.
La fin du monde n'aura pas lieu, il faut se calmer un peu. L'idée d'une IA apocalyptique relève de la science-fiction hollywoodienne, de Terminator ou de HER. Ce sont des outils, certes potentiellement dangereux, comme nous l'avons dit, mais la comparaison avec la bombe atomique est absurde. Il faut mettre un terme à ces analogies.
Enfin, concernant DeepSeek - que j'appelle personnellement Deep Shit -, nous ignorons comment le modèle a été créé et à quel coût. En revanche, son caractère open source nous permet de vérifier qu'à l'inférence, il est plus frugal que les autres. Ce que ses concepteurs ont fait est malin, et j'aurais aimé qu'ils soient français, car le résultat est proche de la démarche de Mistral, dont les modèles sont également frugaux et ingénieux. Cela prouve que nous, en France, avons la capacité d'être malins. Les Chinois aussi, mais il n'est pas exclu qu'ils aient copié...
Mme Dominique Estrosi Sassone, présidente. - Je vous remercie. Nous avons tenu les délais et cette audition fut passionnante. (Applaudissements.)
Nous avons bien compris que la fin du monde n'était pas pour demain et, surtout, que si nous sommes les meilleurs, il nous faut aussi être les plus malins !
Ce point de l'ordre du jour a fait l'objet d'une captation vidéo qui est disponible en ligne sur le site du Sénat.
Audition du candidat proposé par le Président de la République aux fonctions d'administrateur général du Commissariat à l'énergie atomique et aux énergies alternatives (CEA) - Désignation d'un rapporteur
Mme Dominique Estrosi Sassone, présidente. - Nous devons procéder à la désignation d'un rapporteur en vue de la nomination à venir au poste d'administrateur général du Commissariat à l'énergie atomique et aux énergies alternatives (CEA), en application de la procédure prévue au cinquième alinéa de l'article 13 de la Constitution.
La commission désigne M. Christian Redon-Sarrazy rapporteur sur la nomination à venir, par le Président de la République, à la fonction d'administrateur général du CEA, en application de l'article 13 de la Constitution.
Questions diverses
Mes chers collègues, je vous informe qu'en application de l'article 8 quater du Règlement du Sénat, ont été nommés membres de la commission mixte paritaire chargée de proposer un texte sur les dispositions restant en discussion de la proposition de loi visant à lever les contraintes à l'exercice du métier d'agriculteur Mme Dominique Estrosi Sassone, M. Pierre Cuypers, M. Laurent Duplomb, M. Franck Menonville, M. Jean-Claude Tissot, M. Franck Montaugé et M. Bernard Buis comme titulaires, et M. Daniel Gremillet, Mme Anne Chain-Larché, M. Yves Bleunven, M. Christian Redon-Sarrazy, M. Gérard Lahellec, M. Vincent Louault et M. Henri Cabanel comme suppléants.
La réunion est close à 11 h 00.