B. LES PROPOSITIONS VISANT À FONDER UNE VÉRITABLE POLITIQUE NATIONALE DE L'IA
6. Développer une filière française ou européenne autonome sur l'ensemble de la chaîne de valeur de l'intelligence artificielle
La première de nos propositions au niveau national est un objectif qui doit tous nous mobiliser, pouvoirs publics nationaux et locaux, décideurs économiques, associations et syndicats : nous devons viser le développement d'une filière française ou européenne autonome sur l'ensemble de la chaîne de valeur de l'intelligence artificielle, même sans chercher à rivaliser avec les puissances américaines et chinoises en la matière. En effet, mieux vaut une bonne IA chez soi qu'une très bonne IA chez les autres. Il s'agit de se protéger par la maîtrise de l'ensemble des couches de la technologie.
Que ce soit au niveau européen, par l'UE ou avec une coopération renforcée entre quelques pays, ou directement au niveau national, la France doit relever ce défi de construire pour elle, en toute indépendance, les nombreux maillons de la chaîne de valeur de l'intelligence artificielle. L'enjeu de la souveraineté nationale sur cette chaîne est crucial, c'est une condition à la fois de notre indépendance en général et d'une véritable autonomie stratégique sur ces technologies d'IA. Lorsqu'une maîtrise complète de la chaîne ne sera pas possible, notre pays pourra se tourner vers ses partenaires européens pour construire les coopérations nécessaires.
Un article récent de dirigeants de Mc Kinsey, publié le 31 octobre 2024 dans Les Échos436(*), se prononce également en faveur « d'une stratégie holistique pour couvrir l'ensemble de la chaîne de valeur de la technologie » en Europe, de l'énergie jusqu'aux applications en passant par les semi-conducteurs, les infrastructures et les modèles. L'Europe est aujourd'hui leader dans un seul des segments de la chaîne de valeur de l'IA, celui très précis de la gravure des puces, et ce grâce à ASML. Cet article, sans y faire référence explicitement, repose sur le constat dressé dans une note du Mc Kinsey Global Institute d'octobre 2024437(*) analysant la place des pays européens dans chacun des maillons de la chaîne de valeur de l'IA.
En dehors de la niche très spécifique d'ASML, les entreprises européennes restent dans la course en matière de conceptions des modèles, d'applications d'IA et de services mais elles ne représentent que moins de 5 % de parts de marché pour les matières premières (silicium en particulier), la conception des processeurs, la fabrication des puces, les infrastructures de calcul en nuage et les supercalculateurs. Ces filières sont à développer.
Outre l'augmentation des investissements, par exemple à travers les marchés publics, comme pour des applications d'IA dans les secteurs de la défense ou de la santé par exemple, Mc Kinsey invite à prendre pleinement position sur le marché des semi-conducteurs (via des technologies émergentes notamment), à lutter contre la fuite des cerveaux en assurant l'attraction des talents, et à former davantage aux métiers des différentes filières de l'IA, par des programmes de requalification de la main-d'oeuvre pour la préparer à ces nouveaux défis.
Vos rapporteurs ont retenu de leurs comparaisons internationales qu'il faut commencer à lutter réellement contre la fuite des cerveaux. L'Inde et la Chine ont toutes deux compris l'importance pour leurs stratégies nationales en IA de retenir leurs talents et d'inciter au retour de leurs expatriés. En créant des écosystèmes compétitifs favorables à l'innovation, en offrant des opportunités de carrière attractives, en renforçant le sentiment national et surtout à travers divers dispositifs concrets, la France pourra suivre la voie ouverte par ces deux pays et limiter voire inverser la tendance à la fuite des cerveaux. Nous devons aller dans cette direction. Notre pays n'est pas un centre de formation destiné à préparer les futurs génies de la Silicon Valley.
7. Mettre en place une politique publique de l'IA avec des objectifs, des moyens et des outils de suivi et d'évaluation
Plutôt que d'annoncer une stratégie sans objectifs, sans gouvernance et sans outils de suivi, visant pourtant à « faire de la France un leader mondial de l'IA », il convient de mettre en place une véritable politique publique de l'IA avec des objectifs, des moyens réels dont une gouvernance digne de ce nom, et, enfin, des outils de suivi et d'évaluation. Ces éléments sont aujourd'hui cruellement absents des politiques publiques menées en France en matière d'intelligence artificielle.
Plus largement, la politique de la Start-up Nation avec son bras armé la French Tech, aussi élitiste qu'inadaptée, est à abandonner au profit d'une politique de souveraineté numérique, cherchant à construire notre autonomie stratégique et à mailler les territoires.
8. Organiser le pilotage stratégique de la politique publique de l'intelligence artificielle au plus haut niveau
La stratégie nationale pour l'IA ne dispose pas d'une gouvernance digne de ce nom et, comme l'ont montré les développements du présent rapport, le coordinateur national à l'intelligence artificielle ne représente qu'une toute petite équipe rattachée à un service de Bercy, la DGE. Il faudra, au moins, mieux coordonner la politique publique nationale de l'intelligence artificielle que nous appelons de nos voeux et lui donner une réelle dimension interministérielle avec un rattachement du coordinateur au Premier ministre.
La nomination d'une secrétaire d'État à l'intelligence artificielle et au numérique va dans le bon sens, mais il faut aller plus loin que ce premier pas symbolique et définir un pilotage stratégique de la politique publique de l'intelligence artificielle au plus haut niveau avec une coordination interministérielle.
9. Former les élèves de l'école à l'Université, former les actifs et former le grand public à l'IA
Il est indispensable de lancer de grands programmes de formation à destination des scolaires, des collégiens, des lycéens, des étudiants, des actifs et du grand public à l'IA. De ce point de vue, les politiques conduites par la Finlande, qui ont été présentées de manière détaillée, sont des modèles à suivre. La démystification de l'IA est une première étape importante et nécessaire pour permettre une adhésion à son développement. Elle favorisera aussi la diffusion de la technologie dans la société et dans nos entreprises. Et des programmes de formation de haut niveau permettront par ailleurs une montée en compétence en IA en France, qui dispose déjà d'atouts importants en la matière.
Il faut aussi promouvoir une vision scientifiquement éclairée et plutôt optimiste de l'intelligence artificielle, telle que celle portée par Yann LeCun par exemple, qui est l'un de nos plus grands experts de ces technologies. L'IA générale reste pour l'heure une perspective peu probable et la question des risques existentiels éventuellement posés par ces technologies n'est pas une priorité, même si elle fait écho aux représentations catastrophistes que le grand public se fait souvent de l'IA en lien avec les récits de science-fiction et le cinéma. Vos rapporteurs, comme leurs prédécesseurs de 2017, jugent indispensable de démystifier l'intelligence artificielle.
10. Accompagner le déploiement de ces technologies dans le monde du travail et la société, notamment par la formation permanente
S'il est difficile de prévoir l'impact précis que l'IA aura sur le marché du travail, comme l'ont montré les développements à ce sujet dans le présent rapport, il faut tout de même accompagner le déploiement de ces technologies, notamment l'IA générative, dans le monde du travail, en particulier par des programmes de formation permanente ambitieux.
LaborIA s'intéresse aux aspects qualitatifs de ces transformations, mais il ne faut pas oublier les enjeux quantitatifs. C'est pourquoi il est recommandé de mener régulièrement des études qualitatives et quantitatives sur l'impact de l'IA sur l'emploi, le tissu social (dont les inégalités) et les structures cognitives en vue d'éclairer les pouvoirs publics et d'anticiper les mutations des pratiques professionnelles et les changements structurels dans les secteurs d'activité. Sur cette base, il sera possible d'ajuster plus efficacement les programmes de formation permanente et d'adapter les politiques publiques, par exemple en matière d'éducation, de recherche ou de soutien à l'innovation.
11. Lancer un grand dialogue social autour de l'intelligence artificielle et de ses enjeux
Le dialogue social par la négociation collective peut être renouvelé par l'introduction de cycles de discussions tripartites autour de l'IA et de ses nombreuses problématiques. Une opération d'envergure nationale, comme un Grenelle de l'IA, pourrait également être organisée.
Le dialogue social autour de l'IA devrait aussi se décliner dans les entreprises avec les salariés, les responsables des systèmes d'information et les DRH pour permettre une meilleure diffusion des outils technologiques et un rapport moins passionné à leurs conséquences. Comme le présent rapport l'a montré, c'est en effet une occasion de favoriser l'appropriation concrète et réaliste de la technologie et de ses enjeux, en se débarrassant des mythes entourant l'IA.
12. Mobiliser et animer l'écosystème français de l'IA
L'écosystème français de l'IA ne doit pas être mobilisé qu'à travers la French Tech, des meet-up à Station F et l'événement annuel VivaTech. Tous les acteurs de l'IA, la recherche publique et privée, les grands déployeurs de systèmes mais aussi l'ensemble des filières économiques via des correspondants IA (qui pourraient être des représentants des DSI par secteur) doivent pouvoir faire l'objet d'une grande mobilisation générale.
C'est un peu l'esprit qui avait régné entre décembre 2016 et mars 2017 lors de la préparation du plan France IA voulu par le Président de la République, alors François Hollande, un plan sans doute trop rapidement enterré au profit d'une stratégie de Start-up Nation dont les impasses et les lacunes apparaissent de plus en plus nettement avec le temps.
Il y manquait tout de même une structure d'animation, raison pour laquelle vos rapporteurs suggèrent de mobiliser l'écosystème français de l'IA autour de pôles d'animation régionaux, en relation étroite avec les universités, les centres de recherche, comme Inria, et les entreprises. Des expériences étrangères ayant concrétisé l'approche initiale de France IA peuvent nous inspirer. La structure NL AI Coalition, créée par le gouvernement néerlandais et rencontrée par vos rapporteurs à La Haye, rassemble ainsi depuis cinq ans l'écosystème public et privé de l'IA aux Pays-Bas, avec le concours du patronat, des universités et des grands centres de recherche. Elle s'appuie sur sept centres régionaux et est organisée en 18 groupes de travail thématiques.
13. Reconduire le programme « Confiance.ai » ou mettre en place un projet équivalent
Le programme « Confiance.ai » s'est interrompu en 2024 alors qu'il ne coûtait pas cher438(*) et était efficace439(*). Il visait à permettre aux industriels d'intégrer des systèmes d'IA de confiance dans leurs process grâce à des méthodes et des outils intégrables dans tout projet d'ingénierie.
Pour ce faire, le programme levait les verrous associés à l'industrialisation de l'IA comme la construction de composants de confiance maîtrisés, la construction de données et/ou de connaissances pour augmenter la confiance dans l'apprentissage ou encore l'interaction générant de la confiance entre l'utilisateur et le système fondé lui-même sur l'IA de confiance. Il réunissait dans une logique partenariale de grands acteurs académiques et industriels français dans les domaines critiques de l'énergie, la défense, des transports et de l'industrie 4.0 comme l'illustre ce graphique.
Les partenaires du programme Confiance.ai
Source : Confiance.ai
Le programme visait la construction d'une plateforme sûre, fiable et sécurisée d'outils logiciels, qui soit à la fois souveraine, ouverte, interopérable et pérenne dans les secteurs des produits et services critiques les plus concernés, mutualisant les savoir-faire scientifiques et technologiques et contribuant au cadre technique du règlement européen sur l'intelligence artificielle. Dans ce contexte, il est demandé au gouvernement et, en particulier, à la DGE de reconduire le programme « Confiance.ai » ou de mettre très rapidement en place un projet équivalent capable d'allier des expertises en termes de technologie, d'évaluation et de normalisation de l'intelligence artificielle.
Son coût d'environ 3,75 millions d'euros par an est à mettre en regard des 37 milliards d'euros de dépenses proposés par la commission sur l'intelligence artificielle en 2024. Le programme « Confiance.ai » n'en représentait que 1 %, or au vu de ses actions et de ses résultats, il justifie la poursuite d'un effort budgétaire raisonnable et pourtant rentable.
14. Soutenir la recherche publique en intelligence artificielle selon des critères de transversalité et de diversification des technologies
La recherche privée en intelligence artificielle a pris beaucoup d'avance sur la recherche publique, mais cette dernière doit revenir dans la course. La soutenir davantage est un impératif. L'Office juge pertinent de l'orienter vers des activités transdisciplinaires et, plus globalement, transversales autour de « projets de recherche » en IA.
La préoccupation à l'égard de la diversification des technologies est aussi fondamentale : les avancées en IA se font par la combinaison et la recomposition de savoirs et de savoir-faire, pas par l'enfermement dans un modèle unique que l'on chercherait à perfectionner. L'IA générative, à travers son modèle Transformer, ne doit pas devenir la priorité du monde de la recherche, en dépit de l'effet de mode autour de ChatGPT. L'IA symbolique, par exemple, ne doit pas être totalement abandonnée, elle peut s'hybrider avec les IA connexionnistes pour forger de nouvelles approches logiques, imbriquant le signifiant et le signifié et, partant, plus proches des raisonnements humains. D'autres technologies permettant d'apporter plus de logique aux systèmes d'IA générative peuvent également inspirer de nouvelles perspectives pour la recherche, comme les modèles « Mixture of Experts » (MoE), les arbres de pensées ou Trees of Thoughts (ToT) et la génération augmentée de récupération ou Retrieval Augmented Generation (RAG). La prise en compte de modèles de représentation du monde (« World Models ») dans de nouvelles « architectures cognitives » est un autre défi que la recherche devra relever, permettant aux IA de prendre en compte la réalité spatio-temporelle, y compris le monde physique et ses lois. Ce domaine avance lentement mais pourrait connaître une accélération des découvertes440(*).
Pour paraphraser Rabelais qui écrivait que « Science sans conscience n'est que ruine de l'âme », vos rapporteurs affirment que « l'IA sans logique n'est qu'illusion d'intelligence ».
15. Relever le défi de la normalisation en matière d'intelligence artificielle
Il faut permettre à la France de défendre au mieux l'intérêt national ainsi que les intérêts de nos entreprises nationales en matière de normalisation de l'IA, ce qui implique de mobiliser davantage l'Afnor et surtout le Cofrac, aujourd'hui désinvesti sur ce sujet.
Il faudrait aussi maintenir ou augmenter le financement de nos organismes de normalisation qui remplissent leurs missions dans des conditions parfois difficiles.
Enfin, la France doit inviter ses partenaires européens à faire preuve d'une plus grande vigilance dans le choix de leurs représentants dans les comités chargés de la normalisation en IA : s'appuyer sur des experts issus d'entreprises extra-européennes, le plus souvent américaines ou chinoises, n'est pas acceptable.
16. S'assurer du contrôle souverain des données issues de la culture française et des cultures francophones et créer des jeux de données autour des cultures francophones
Il faut à la fois s'assurer du contrôle souverain des données issues de la culture française, notamment des archives détenues par la BNF ou l'Institut national de l'audiovisuel, voire des cultures francophones et créer des datasets autour des cultures francophones, en vue d'alimenter l'entraînement de modèles d'IA reflétant notre environnement linguistique et culturel.
Il s'agit d'un acte de résistance face à la domination linguistique et culturelle anglo-saxonne, en particulier américaine, qui caractérise l'IA aujourd'hui et qui fait courir un risque grave d'uniformisation culturelle et d'appauvrissement linguistique. Les jeux de données autour des cultures francophones pourront être constitués avec le concours de tous les pays de la francophonie.
Les initiatives conduites par certains pays, en particulier par l'Espagne, peuvent contribuer à inspirer notre pays et à aider à la définition du cadre de ces datasets. En effet, le gouvernement espagnol a lancé depuis 2022 un plan national autour de la « nouvelle économie de la langue ». Il vise à placer l'espagnol au coeur de la transformation numérique et de la promotion de la chaîne de valeur de la nouvelle économie de la connaissance et de l'intelligence artificielle. La France doit faire la même chose pour le français. Ainsi, le plan de l'Espagne se décline notamment en constitution de bases de données textuelles dans les langues espagnoles, ces datasets, permettant l'entraînement de modèles et la création de LLM basés sur la langue et la culture espagnoles.
Comme l'Espagne, qui a réservé une part de son plan à ses langues « co-officielles » (catalan, basque, galicien) à côté de l'espagnol, la France pourrait avantageusement consacrer une part de ces jeux de données autour des cultures francophones aux langues régionales (breton, occitan, basque, corse, langues pratiquées dans les territoires ultramarins...) dont l'appartenance au patrimoine national a été consacrée par la Constitution depuis 2008.
17. Préparer une réforme des droits de propriété intellectuelle dont le droit d'auteur pour les adapter aux usages de l'IA générative
Il faut poser les bases d'une réforme des droits de propriété intellectuelle et du droit d'auteur pour les adapter aux usages de l'IA générative et aux problèmes posés plus généralement par l'utilisation de l'intelligence artificielle. Notre législation en matière de propriété intellectuelle et de droits d'auteur applicables à l'IA générative nécessite à l'évidence plusieurs éclaircissements. Le rapport d'information de la commission des lois de l'Assemblée nationale déposé en conclusion des travaux de sa mission d'information sur les défis de l'intelligence artificielle générative en matière de protection des données personnelles et d'utilisation du contenu généré s'est consacré à ce travail de clarification. Les 33 recommandations de nos collègues députés, que nous ne récapitulerons pas ici, fournissent des pistes intéressantes qu'il convient d'évaluer et de soumettre à la délibération441(*).
L'objectif d'une telle réforme sera à la fois de clarifier les régimes juridiques applicables, de protéger les ayants droit des données ayant servi à l'entraînement des modèles mais aussi les créateurs d'oeuvres nouvelles grâce à l'IA. Cela impliquera donc, d'une part, de trancher l'épineuse question de l'équilibre entre les intérêts des ayants droit et intérêt des entreprises développant des modèles d'intelligence artificielle, d'autre part, de lever le doute sur la frontière entre oeuvre originale et contrefaçon ou copie dans le cas d'un travail créé par IA puisque la réforme devra aussi mettre fin au flou juridique entourant le statut des oeuvres créées par l'intelligence artificielle.
La solution des droits voisins, utilisée dans les secteurs de la musique et du cinéma, mais aussi de l'information (dont la presse écrite) à la suite des transformations liées au numérique et à Internet, est une perspective dont il faut débattre.
Face au succès des plateformes de streaming et de service de vidéo à la demande, l'enjeu de ces compensations financières devient grandissant. Il le sera encore plus avec la diffusion de l'IA. L'UE s'est d'ailleurs dotée en 2019 d'une directive sur le droit d'auteur et les droits voisins dans le marché unique numérique442(*), qu'il faudra faire évoluer au rythme des capacités de création de l'IA.
Techniquement, l'utilisation de données propriétaires et surtout de contenus protégés par le droit d'auteur peut non seulement être limitée en amont par le nettoyage des données mais dorénavant corrigée en aval grâce à une nouvelle technologie introduite récemment appelée Model disgorgement ou Machine Unlearning. Les entreprises qui collecteraient illégalement des données pour les utiliser à fin d'entraînement de leurs modèles pourraient par exemple être dans l'obligation non seulement de supprimer les données problématiques et de les abandonner lors de futurs entraînements mais surtout de mettre à jour leurs modèles en faisant comme si ces données n'avaient jamais été utilisées. Plutôt que de réentraîner totalement leurs modèles, les entreprises s'appuieraient alors utilement sur cette technique émergente qui pourra encore être perfectionnée443(*).
18. Confier à l'OPECST le suivi et l'évaluation régulière de la politique publique conduite par le Gouvernement en la matière
La politique nationale en matière d'IA conduite par le Gouvernement devrait faire l'objet d'un suivi et d'une évaluation régulière par l'OPECST. Les aspects scientifiques et technologiques de l'intelligence artificielle ainsi que les enjeux qu'ils soulèvent appellent une expertise et une vigilance à la croisée des mondes politiques et scientifiques, c'est donc logiquement à l'OPECST qu'il convient de faire appel.
Dans le rapport précité de la commission des lois de l'Assemblée nationale, nos collègues députés - ayant constaté que le premier travail parlementaire relatif à l'IA avait été fait dans le rapport de l'OPECST de mars 2017 « Pour une intelligence artificielle maîtrisée, utile et démystifiée », qualifié « d'étude approfondie » - préconisent dans leur 33e recommandation de confier à l'OPECST un suivi permanent des questions relatives à l'intelligence artificielle.
Les rapporteurs Philippe Pradal et Stéphane Rambaud estiment en effet « souhaitable que le Parlement puisse réaliser un suivi permanent des questions relatives à l'intelligence artificielle, dont les implications sont multiples et évolutives. L'Office parlementaire d'évaluation des choix scientifiques et technologiques semble le mieux à même d'assumer cette responsabilité, d'autant qu'il a déjà travaillé sur ce sujet ».
L'actualisation des connaissances sur l'IA et ses enjeux par le présent rapport plaide encore plus en ce sens aujourd'hui.
* 436 « IA : l'Europe peut encore jouer dans la cour des grands ! » dans Les Échos du 31 octobre 2024 : https://www.lesechos.fr/idees-debats/cercle/opinion-ia-leurope-peut-encore-jouer-dans-la-cour-des-grands-2128995
* 437 La note s'intitule « Time to place our bets: Europe's AI opportunity » et vise à encourager la compétitivité de l'Europe sur la totalité de la chaîne de valeur de l'IA en recourant à une approche à plusieurs niveaux que le cabinet qualifie ainsi : « A holistic approach to help Europe realize generative AI's full potential ». Cf. Alexander Sukharevsky et al., octobre 2024, « Time to place our bets: Europe's AI opportunity », Mc Kinsey Global Institute : https://www.mckinsey.com/capabilities/quantumblack/our-insights/time-to-place-our-bets-europes-ai-opportunity
* 438 Son budget était de 45 millions d'euros sur quatre ans dont une dotation de l'État de 15 millions d'euros, soit environ 3,75 millions d'euros par an.
* 439 Cf. ses actions sur le site de Confiance.ai : https://www.confiance.ai/
* 440 Joshua Bengio, Yann LeCun et d'autres chercheurs travaillent à cette amélioration qualitative. En novembre 2024, un article a ainsi proposé une nouvelle méthode permettant aux IA génératives de modéliser les dynamiques visuelles sans passer par une étape de reconstruction du monde physique dans un espace pixellisé : le Dino-WM pour World Model. Cf. Gaoyue Zhou, Hengkai Pan, Yann LeCun, Lerrel Pinto, 2024, « DINO-WM : World Models on Pre-trained Visual Features enable Zero-shot Planning » : https://arxiv.org/abs/2411.04983
* 441 Rapport d'information de la commission des lois de l'Assemblée nationale déposé en conclusion des travaux de sa mission d'information sur les défis de l'intelligence artificielle générative en matière de protection des données personnelles et d'utilisation du contenu généré de Philippe Pradal et Stéphane Rambaud, rapport d'information n° 2207, 16e législature : https://www.assemblee-nationale.fr/dyn/16/rapports/cion_lois/l16b2207_rapport-information
* 442 Cette directive, qui visait notamment à protéger le monde de la presse, impose par exemple aux plateformes numériques telles que Google ou Facebook, de rémunérer les éditeurs et les journaux lorsqu'ils utilisent leurs contenus. Cf. la directive du 17 avril 2019 sur le droit d'auteur et les droits voisins dans le marché unique numérique : https://eur-lex.europa.eu/legal-content/FR/TXT/HTML/?uri=CELEX:32019L0790&from=EN
* 443 Cf. Brandon LaLonde, 2023, « Explaining model disgorgement », IAPP : https://iapp.org/news/a/explaining-model-disgorgement et Joshua A. Goland, 2023, « Algorithmic Disgorgement : Destruction of Artificial Intelligence Models as the FTC's Newest Enforcement Tool for Bad Data », Richmond Journal of Law and Technologies, volume XXIX, n° 2 : https://ssrn.com/abstract=4382254