Jeudi 30 octobre 2024
- Présidence de Mme Christine Lavarde, présidente -
La réunion est ouverte à 14 heures.
Examen du rapport « IA et éducation »
Mme Christine Lavarde, présidente. - Je remercie tous ceux qui ont pu se rendre disponibles pour cette réunion consacrée à l'examen du rapport « intelligence artificielle et éducation ». Sur ce sujet qui offre des opportunités mais suscite également des craintes, je cède la parole à nos rapporteurs, Christian Bruyen et Bernard Fialaire.
M. Bernard Fialaire, rapporteur. - Avec mon collègue Christian Bruyen, nous avons le plaisir de vous présenter aujourd'hui le troisième rapport thématique sur l'intelligence artificielle (IA) dans les services publics. Après les administrations fiscales et sociales, d'une part, et la santé, d'autre part, ce volet concerne le domaine de l'éducation.
Pour disposer d'un état des lieux objectif, nous avons entendu, entre le 18 juin et le 17 septembre, 23 personnes dans le cadre d'une dizaine d'auditions et de tables rondes. Nous avons par ailleurs reçu quelques contributions écrites complémentaires.
Nous avons souhaité nous concentrer sur l'enseignement scolaire, qui nous est cher, sans pour autant ignorer totalement les développements en cours dans le monde universitaire.
Nos échanges ont confirmé l'intérêt porté à l'IA par les différents acteurs de l'éducation. Qu'ils soient enseignants, élèves, services ministériels, entreprises de la filière EdTech, opérateurs de formation ou encore chercheurs, tous s'intéressent à l'IA, mais néanmoins à des degrés divers, parfois de manière volontariste, parfois de manière plus contrainte.
Nos entretiens ont également mis en évidence la très grande sensibilité du sujet : l'arrivée de l'IA générative à l'école est vécue comme un facteur majeur de déstabilisation pour les enseignants.
Elle bouleverse les pratiques d'enseignement traditionnelles et les relations de l'enseignant avec les apprenants.
Cette sensibilité est exacerbée par les enjeux éthiques de l'IA dans l'éducation. D'un côté les données exploitées sont celles d'enfants, adultes encore en construction, de l'autre, la masse des informations et connaissances disponibles rend essentielle la capacité de discernement des utilisateurs.
Peut-être plus qu'ailleurs, la confiance sera-t-elle un élément décisif pour une intégration efficace et responsable de l'IA dans l'enseignement.
Dans ce contexte, notre rapport vise simplement à dresser un panorama général des usages possibles de l'IA à l'école et à émettre quelques recommandations pour que notre système éducatif ne passe pas à côté d'une évolution qui pourrait lui être profitable.
M. Christian Bruyen, rapporteur. - Deux constats sont nécessaires pour commencer.
Tout d'abord, il faut le dire, l'IA générative a déjà largement fait irruption au sein de notre système éducatif. La question n'est plus de décider s'il faut lui faire une place, mais de savoir comment accompagner les évolutions qui s'imposent ainsi à nous.
Récemment, un sondage réalisé auprès de lycéens scolarisés en région Nouvelle-Aquitaine révélait en effet que plus de 90 % des élèves de seconde avaient déjà utilisé l'IA générative comme aide aux devoirs.
En ce qui concerne l'enseignement supérieur, selon un autre sondage, de novembre 2023, plus de la moitié des étudiants déclaraient utiliser un outil d'IA générative, au moins occasionnellement. Ce chiffre évolue très vite puisqu'une enquête récente de l'Ifop révèle qu'en un an, le nombre d'utilisateurs de l'IA générative a crû de 60 %.
Lorsqu'ils sont interrogés sur leur perception de ces outils, les jeunes qui font usage de l'IA relèvent d'emblée la patience infinie de ces systèmes, leur « bienveillance », et le fait qu'ils se mettent à leur portée, sans jugement de valeur.
On le voit donc, l'usage de l'IA dans le cadre de la scolarité ou des études est déjà massif et apprécié par la jeunesse. Néanmoins, cet usage reste très corrélé à l'âge. En revanche, et c'est un aspect essentiel du sujet, il n'en est qu'à ses débuts dans les pratiques enseignantes.
C'est le second constat : comme Bernard Fialaire l'a déjà évoqué, la confiance de la communauté éducative manque nettement à l'appel. Nos discussions avec les syndicats d'enseignants et l'opérateur public de formation Canopé nous ont permis de prendre la mesure de l'absence de repères du corps enseignant vis-à-vis de l'IA. Et puis, sur le fond, l'encouragement à intégrer l'IA dans les pratiques professionnelles est vécu, par certains, comme une sorte d'injonction contradictoire avec l'exercice de la liberté pédagogique.
Des inquiétudes sont également exprimées sur la capacité de l'IA générative à produire des résultats originaux impossibles à distinguer de la production humaine, et donc, par exemple, sur la nécessité de repenser les devoirs à la maison.
Le développement d'une dépendance à quelques grandes entreprises dominant le marché mondial et non véritablement soumises à la réglementation européenne constitue aussi une critique récurrente. De ce point de vue, il faut le dire, c'est un risque qui, sans être avéré, nécessite tout de même aujourd'hui une vigilance particulière.
Enfin, certains enseignants vont jusqu'à redouter une forme de « dépossession » de leur métier dans la mesure où l'IA s'introduit dans des aspects relevant du coeur même de leurs missions, par exemple pour la notion d'évaluation.
Toutes plus ou moins légitimes, ces réactions mettent en évidence la nécessité de bâtir un cadre de confiance fondé sur un accompagnement efficace et une approche objective et équilibrée. Il ne faut ni diaboliser l'IA pour son caractère supposément aliénant, ni l'idéaliser en exagérant sa capacité à répondre aux difficultés traversées par le système éducatif.
Cela implique tout d'abord d'assurer les enseignants de leur place toujours centrale dans l'accès au savoir et comme figures d'autorité. Mais aussi de faire la démonstration scientifique de la capacité de l'IA à favoriser la montée en compétences des apprenants. Nous y reviendrons.
Il nous paraît aller de soi que l'IA n'a pas vocation à remplacer le professeur, ni l'infrastructure de l'école, qu'elle ne doit être qu'un outil au service d'objectifs éducatifs définis par l'humain. Mais encore faut-il que l'on sache en convaincre le monde enseignant.
Oui, c'est bien de cela dont il s'agit : mettre en confiance et que l'IA soit bien perçue comme un système automatisé qui, pour un ensemble d'objectifs définis par l'humain, est en mesure d'établir des prévisions, de formuler des recommandations ou de proposer des décisions influant sur des environnements éducatifs en interagissant avec les usagers, portant vers une décision finale devant bien, quant à elle, rester le fruit d'une intelligence humaine.
Passé ce double constat, j'en viens au formidable potentiel d'innovation offert par l'IA dans le secteur de l'éducation.
Trois principaux types d'application peuvent être retenus selon que la technologie vient au soutien de l'enseignant, de l'apprenant ou du système éducatif. Les initiatives étant foisonnantes et le marché des EdTech dynamique, notre rapport ne prétend pas à un inventaire exhaustif, mais fournit quelques illustrations des possibilités existantes.
Tout d'abord, pour l'enseignant, les technologies permettant de personnaliser l'enseignement en l'adaptant au profil de l'apprenant font partie des plus intéressantes. Dans le cadre de cet apprentissage « adaptatif », le système peut, à partir de l'analyse de données d'apprentissage - par exemple des réponses à des questionnaires -, s'ajuster à l'utilisateur et sélectionner des contenus et un niveau de difficulté appropriés.
Conformément au concept de la « zone proximale de développement » bien connu des pédagogues, chaque élève bénéficie ainsi du juste équilibre entre un exercice trop facile, facteur de démotivation, et une activité trop difficile, source de découragement.
Un tableau de bord permet aux enseignants d'organiser et de suivre les apprentissages en classe et à la maison en gardant une vue d'ensemble des travaux effectués par les élèves et de leur progression. L'enseignant a donc la possibilité de suivre les apprentissages en temps réel et de « traiter une classe de 25 comme une classe de 12 », selon l'expression d'Arthur Mensch, cofondateur de Mistral.
Les IA contribuent ainsi au processus d'évaluation formative en aidant les enseignants à faire le point sur les acquis de chaque élève et les compétences précises à cibler.
Le rôle d'assistance à l'ingénierie pédagogique joué par l'IA générative revêt également une importance croissante. Dans ce domaine, les techniques reposent sur les possibilités offertes par la multimodalité ou la génération augmentée par récupération (RAG). Celles-ci permettent la mise en place d'interactions variées à partir de corpus de données choisis par l'enseignant.
Les objectifs sont multiples : concevoir une séquence pédagogique ou faciliter l'élaboration de matériel éducatif comme des QCM, tests, grilles d'évaluation et autres activités interactives. Il s'agit en quelque sorte, pour l'enseignant, d'« augmenter » sa pédagogie en l'enrichissant d'idées nouvelles, de contenus ou de choix d'illustrations, en étant assisté dans la scénarisation du cours.
Cette assistance aux tâches rédactionnelles ou à la réalisation de certaines évaluations pourrait libérer du temps pour les enseignants. Ces derniers pourraient alors, par exemple, se concentrer davantage sur les élèves qui connaissent le plus de difficultés. D'une manière plus globale, déchargés de certaines tâches, bénéficiant d'une forme de souplesse apportée par l'IA, les enseignants pourraient s'investir plus intensément sur d'autres aspects de leur pédagogie.
Venons-en maintenant aux apprenants.
Ils ont, d'évidence, de plus en plus facilement accès à des chatbots génératifs. Il s'agit de tuteurs virtuels permettant de répondre à leurs questions en temps réel, ou de programmes informatiques simulant une conversation écrite ou orale. Tout se passe comme si l'élève était assisté par un coach particulier pour l'acquisition de connaissances ou le développement de compétences, à son rythme.
De nombreuses applications d'IA générative sont par ailleurs utilisées comme aide aux devoirs ou pour les activités d'écriture (Course Hero, Brainstory, Quillbot, Plume). Elles facilitent l'accès à des informations utiles, extraites d'une vaste quantité de données : l'élève peut obtenir des résumés d'ouvrages, identifier des ressources pertinentes ou trouver une source d'inspiration pour amorcer une tâche rédactionnelle.
On peut tout de même se poser la question de l'acquisition réelle de ces compétences, puisque d'une certaine façon, elles ne sont sans doute plus autant travaillées, entraînées, développées qu'elles ne l'étaient avec une approche plus traditionnelle.
Quoi qu'il en soit, dans ce domaine, malgré l'existence d'IA génératives spécialisées, développées à des fins éducatives, c'est ChatGPT qui reste la plus plébiscitée pour ses performances et sa facilité d'utilisation, et ce malgré son caractère généraliste. Nous y reviendrons.
Quelques mots avant cela des perspectives prometteuses offertes par l'IA pour le soutien des apprenants ayant des besoins spécifiques. Il nous paraît important d'évoquer les technologies mises au point pour faciliter les interactions avec les enfants souffrant de troubles du spectre autistique (TSA). En réduisant l'appréhension et la peur du jugement que ressent souvent l'enfant autiste à l'idée de parler avec un adulte, des technologies comme des robots intégrant de l'IA peuvent l'aider à communiquer plus aisément.
Ces systèmes sont porteurs d'espoirs pour le maintien en milieu scolaire ordinaire où l'adaptation des rythmes d'apprentissage et du temps passé avec l'enseignant apparaît fondamentale. Capables de percevoir des signaux invisibles à l'oeil humain et d'analyser le comportement des enfants autistes en classe, ils pourraient un jour aider les enseignants dans l'adaptation de leur approche pédagogique, comme cela a déjà été envisagé avec les outils numériques de façon plus générale. Les enfants autistes bénéficieraient à la fois d'un apprentissage sur mesure et d'une relation en tête-à-tête plus approfondie avec l'enseignant.
Il faut cependant savoir raison garder : cette perspective apparaît encore relativement lointaine. Les technologies concernées restent pour l'heure cantonnées à la relation thérapeutique ou à la sphère privée et leur coût est particulièrement prohibitif. Le niveau de preuve d'efficacité dans le domaine éducatif reste par ailleurs à renforcer.
Enfin, au-delà de l'enseignant et de l'apprenant, l'IA peut venir faciliter la gestion des structures éducatives par l'analyse des nombreuses données disponibles. Qu'il s'agisse de l'orientation des élèves ou de l'adaptation des programmes scolaires, l'IA peut être utilisée comme outil de diagnostic, de planification et d'allocation des ressources.
Attention tout de même, car, comme l'ont montré les débats sur « Parcoursup », les enjeux de transparence des algorithmes et d'« explicabilité » sont majeurs. L'AI Act classe d'ailleurs parmi les utilisations à haut risque les systèmes d'IA qui contribuent à déterminer l'accès ou l'affectation aux établissements d'enseignement ou à évaluer les étudiants.
Et puis, sans aller jusqu'à considérer l'Éducation nationale strictement comme un appareil idéologique de l'État, on mesure bien le risque qu'il peut y avoir à utiliser l'IA pour « adapter » les programmes scolaires. Là aussi, la prudence s'impose.
Allons encore plus loin et évoquons un usage beaucoup plus controversé, celui des innovations technologiques qui ont pour objet l'évaluation de la participation et de l'attention des élèves, en classe ou à distance, par l'analyse des mouvements oculaires ou d'autres caractéristiques du visage. Cela va jusqu'à l'utilisation de capteurs physiques et physiologiques comme cela est expérimenté en Chine.
Ce cas d'usage soulève naturellement des questions éthiques. La réglementation européenne interdit fort heureusement les systèmes de reconnaissance des émotions dans les établissements d'enseignement et les systèmes de notation basés sur le comportement social ou les caractéristiques personnelles. Les possibilités offertes par la combinaison des neurotechnologies et de l'IA dans l'éducation nous incitent à la plus grande prudence, et c'est aussi un point de vigilance que les politiques, le législateur, doivent conserver à l'esprit.
On le voit, les applications potentielles de l'IA dans l'éducation sont nombreuses. Pourtant, redisons-le, le recours aux outils innovants reste très inégal et l'acculturation des enseignants se fait en ordre dispersé.
En l'absence pour le moment, d'une démarche suffisamment structurée portée par l'Éducation nationale, l'usage de l'IA repose encore largement sur des initiatives individuelles, de quelques pionniers pour des expérimentations à petite échelle. Néanmoins, si la situation ne porte pas à un optimisme sans faille, il y a tout de même des points positifs.
M. Bernard Fialaire, rapporteur. - En France, l'Éducation nationale s'est emparée du sujet de l'IA dès 2018 dans le cadre de la stratégie du numérique pour l'éducation et du plan « France 2030 ».
Des partenariats d'innovation en intelligence artificielle (P2IA) ont permis de mettre à la disposition des professeurs des écoles des services numériques s'appuyant sur l'IA pour personnaliser les apprentissages. Il s'agit d'un dispositif très intéressant que d'autres pays nous envient. Il permet une co-conception d'outils par des entreprises de la filière EdTech, des laboratoires de recherche et des équipes pédagogiques, au plus près des besoins et dans le cadre d'adaptations continues à partir de retours d'expérience.
Les outils disponibles permettent aujourd'hui de proposer une différenciation des exercices et d'évaluer régulièrement les compétences des élèves de CP, CE1 et CE2 en français et mathématiques. Le nombre d'utilisateurs potentiels est estimé à 53 000 professeurs et 1,3 million d'élèves.
Il faut dans ce contexte reconnaître l'implication de la direction du numérique pour l'éducation et le rôle proactif joué par l'opérateur de formation « Réseau Canopé » pour l'élaboration de ressources permettant aux enseignants de se former.
Trois nouvelles séries de P2IA sont en cours de construction, ou en projet, pour un budget total estimé à 68 millions d'euros. Mais, faute d'un accompagnement suffisant, les services disponibles n'ont pas connu la montée en puissance attendue. Les syndicats d'enseignants nous ont indiqué qu'ils sont largement méconnus. Ils restent en outre fondés sur de l'IA classique et aucun outil d'IA générative institutionnel et souverain n'est pour le moment proposé.
En dehors des P2IA, le ministère de l'éducation nationale identifie près d'une vingtaine de services d'IA utilisés de façon éparse dans le cadre d'initiatives individuelles pour les mathématiques, les lettres, les sciences ou encore les langues vivantes. Au-delà, il souligne ne pas être en mesure d'identifier des IA conformes aux exigences juridiques et éthiques pour les usages scolaires.
Le ministère se montre particulièrement vigilant sur la question du traitement des données à caractère personnel. De ce fait, les outils d'IA générative développés par les Gafam ne sont pas utilisables dans un cadre scolaire, seules étant autorisées les utilisations à titre individuel, sous le régime du contrat privé.
L'IA générative nous paraît pourtant devoir être un outil d'apprentissage mobilisable en classe. Il s'agit d'ailleurs d'une demande de certains parents d'élèves. Ceux-ci souhaitent que l'acquisition de compétences comme la rédaction d'une requête pertinente et l'analyse du résultat obtenu puisse s'effectuer de manière progressive tout au long de la scolarité.
Dans ce contexte, le développement d'un service d'IA générative souverain dédié à l'éducation, tel que le projet en cours « OpenLLM France », apparaît bienvenu.
Il devrait s'appuyer sur des corpus de données d'apprentissage publics et ouverts et sur des algorithmes documentés pour en assurer l'explicabilité, le tout dans le cadre d'une licence d'utilisation libre. Les premiers usages en classe sont attendus courant 2024 dans les académies volontaires pour une utilisation plus généralisée à la rentrée 2025.
Sans attendre l'élaboration de ce modèle, une initiative intéressante a vu le jour au sein de l'académie d'Aix-Marseille avec la mise au point expérimentale d'un petit langage de modèle (SML) mobilisable directement en classe : « IA AnSu ». L'objectif est de disposer d'une IA maîtrisée de bout en bout, experte, conforme au RGPD et frugale.
Ce projet consiste à utiliser les propriétés d'un grand modèle de langage, en l'occurrence celui de Mistral, pour l'adapter à des besoins éducatifs et en faire un assistant éducatif en classe au collège. À l'issue d'un travail d'éducation du modèle, comportant à la fois une optimisation du contexte (enrichissement des informations) et celle de son comportement, les auteurs du projet ont mis au point un modèle de langage plus petit, plus rapide et plus économe en ressources.
L'interface pourra être personnalisée en fonction des besoins spécifiques des enseignants et des élèves. Engagée fin 2023, la construction du projet doit se poursuivre grâce aux retours d'expérience de « testeurs ». Cette initiative doit beaucoup au volontarisme et au fort intérêt pour l'IA de l'équipe de l'académie.
Ces évolutions sont lentes comparativement aux développements technologiques rapides dont sont capables les Gafam mais l'enjeu de la sensibilité et de la qualité des données est pris en compte, les modèles d'IA étant formés sur des données validées par le ministère ou par les enseignants eux-mêmes.
S'agissant de l'enseignement supérieur, où prévaut le principe d'autonomie des établissements, les avancées et les pratiques apparaissent très hétérogènes. Plusieurs grandes écoles s'organisent pour prendre en compte les usages de l'IA et réfléchir aux moyens d'enseigner l'IA et d'enrichir les enseignements par l'IA.
Certaines d'entre elles, en particulier les écoles de management, comme « Neoma Business School », ont mis en place des outils d'apprentissage adaptatif et des stratégies de formation à l'IA de l'ensemble des étudiants et des enseignants. Cependant, ces développements restent encore l'apanage de quelques établissements précurseurs disposant de moyens importants et la diffusion d'une culture de l'IA reste globalement balbutiante.
À partir de ces constats, plusieurs scénarios de déploiement de l'IA peuvent être envisagés dans l'éducation ces prochaines années.
Les évolutions dépendent essentiellement de deux variables : d'une part, le degré de mise à disposition par les pouvoirs publics d'outils ayant fait la preuve de leur efficacité, d'autre part, le degré d'acculturation des utilisateurs, qui nous ont permis de distinguer quatre scénarios.
Dans le scénario « pessimiste », peu de technologies d'IA seraient disponibles à l'école en raison d'une grande prudence liée aux risques supposés de l'IA, qui pourrait aller jusqu'à un moratoire sur les expériences d'IA générative les plus avancées, ou bien en raison d'un fort ralentissement du marché. Les acteurs de l'éducation se seraient peu emparés des outils. Dans ces conditions, le système éducatif ne connaîtrait que peu d'évolutions et pourrait s'éloigner des tendances à l'oeuvre dans d'autres pays du monde.
À l'autre extrémité, dans le scénario « optimiste », le potentiel des IA est bien exploité, avec des outils et des usages ciblés, et les acteurs de l'éducation s'y sont acculturés grâce à un accompagnement et une formation adaptés. Dans ce scénario, les enseignants exploitent pleinement le potentiel d'individualisation et de différenciation de l'IA et l'éducation enregistre des améliorations tangibles.
Deux scénarios intermédiaires font apparaître de forts contrastes entre des usages encore modestes et inégaux mais encadrés par des règles éthiques bien définies, et des usages en ordre dispersé hors de toute régulation.
Quoique schématique, cette présentation a le mérite de mettre en lumière plusieurs conditions nécessaires à une intégration efficace et responsable de l'IA dans l'éducation.
Pour l'avenir, trois orientations nous paraissent devoir être retenues :
- mieux accompagner les acteurs de l'enseignement par la définition d'un cadre d'usage et un accès facilité aux outils disponibles ;
- former plus massivement et favoriser l'émergence d'une culture citoyenne de l'IA, à l'école et en dehors de celle-ci ;
- évaluer les outils et approfondir la recherche.
Première orientation : il faut mieux accompagner les acteurs de l'éducation.
L'instauration d'un climat de confiance nécessite tout d'abord la définition d'une doctrine et d'un cadre d'usage. Les enseignants doivent disposer de lignes directrices claires et structurantes.
Le développement de l'IA conduit nécessairement à requestionner ce qui doit être appris, comment, et à quelles fins. Dans quels buts utiliser l'IA ? Avec quels outils ? Les élèves doivent-ils pouvoir utiliser l'IA générative pour leurs devoirs, voire en classe, comme c'est parfois déjà le cas avec les calculatrices et les logiciels de traitement de texte ? Quelle place pour l'IA dans l'évaluation ?
S'agissant des devoirs à la maison, les chercheurs en sciences cognitives et de l'éducation que nous avons auditionnés mettent en garde contre l'utilisation sans discernement de l'IA générative, qui fait courir le risque d'un « court-circuitage » de l'effort cognitif nécessaire à un apprentissage efficace.
De nombreux élèves peuvent surestimer à la fois les compétences des IA génératives et leurs propres compétences en raison du ton apparemment très assuré de ces systèmes et de l'image qui leur est associée d'une « super-intelligence ». Cela peut limiter le développement de leur curiosité et de leur esprit critique, facteurs pourtant essentiels à un apprentissage actif.
Par conséquent, les chercheurs insistent sur deux points :
- d'une part, le système éducatif doit s'intéresser davantage au processus d'écriture, de création et d'apprentissage que simplement au « produit final » à évaluer ;
- d'autre part, pour prévenir le risque de perte de compétences et être capable de se passer d'IA, l'enjeu est également d'apprendre à apprendre : il faut renforcer les compétences métacognitives des élèves, leur permettant de mettre en oeuvre une stratégie d'utilisation et d'évaluation des systèmes et d'être « résistants à l'erreur ».
M. Christian Bruyen, rapporteur. - Deuxième recommandation : il faut accompagner les enseignants dans le déploiement des outils d'IA mis à leur disposition. Comprendre l'IA et connaître les outils ne suffit pas pour s'en saisir.
S'agissant des outils issus des P2IA, selon l'avis des personnes que nous avons entendues, deux obstacles principaux paraissent freiner leur adoption, indépendamment de la question des moyens et des infrastructures :
- d'une part, les enseignants évoquent un certain manque de temps pour s'acculturer à ces outils dans un contexte où ils font face à de multiples sollicitations et puis, en parallèle, ne manquent déjà pas de ressources pédagogiques ;
- d'autre part, et c'est plus profond, il subsiste un préjugé assez souvent négatif sur le numérique à l'école dans sa globalité et sur l'IA en particulier.
Pourtant, il s'agit, comme le souligne le responsable de la Chaire Unesco sur l'IA, de systèmes « modestes mais utiles », développés en tenant compte des apports des sciences cognitives.
Ceci plaide donc pour un accompagnement plus soutenu des enseignants dans l'expérimentation des outils en conditions réelles et pour l'intégration des technologies d'IA dans les scénarios pédagogiques validés par les inspections. Il s'agit de confronter directement les enseignants aux outils afin qu'ils puissent en évaluer par eux-mêmes les apports et les limites.
Troisième recommandation : il faut enfin mener une réflexion sur les infrastructures et les choix techniques, afin de faciliter l'accès des enseignants aux IA éducatives de leur choix.
Une enveloppe de crédits dédiée qui permettrait d'en simplifier l'achat via un « compte ressources » serait une avancée majeure. Le projet en avait d'ailleurs été imaginé par le ministère avant d'être abandonné faute de financement.
Ensuite, il faut former et favoriser l'émergence d'une culture citoyenne de l'IA.
Pour cela, il faut d'abord intégrer l'IA dans la formation initiale des enseignants et des cadres de l'Éducation nationale et la valoriser dans la formation continue.
Les efforts de formation à l'IA doivent viser non seulement les enseignants au cours de leur formation initiale et continue mais également l'ensemble des cadres du premier et du second degré de l'enseignement, en particulier le corps des inspecteurs et les conseillers pédagogiques. Ces derniers doivent être en capacité d'accompagner et de conseiller efficacement les enseignants dans leurs choix et les parcours pédagogiques.
Compte tenu de la vitesse d'évolution des technologies, la formation doit cibler les compétences nécessaires à la compréhension et à l'utilisation des outils, leurs implications en termes d'éducation et d'éthique, et non pas simplement la connaissance des outils.
De plus, doter les élèves et les citoyens d'une culture générale de l'IA apparaît également indispensable. Il faut intégrer dans la formation scolaire et universitaire une approche interdisciplinaire obligatoire sur l'IA, permettant d'en saisir aussi bien les aspects technologiques que les enjeux sociétaux et éthiques.
Dans l'éducation nationale, une réflexion doit être menée par le conseil des programmes sur une intégration de l'IA dans les différents champs disciplinaires avec la mise en place d'un parcours pédagogique cohérent.
Il conviendrait en outre d'intégrer un module d'IA au programme de la certification des compétences numériques « PIX », dont l'obtention est obligatoire pour un certain nombre d'élèves.
Dans l'enseignement supérieur, il pourrait être envisagé d'inclure dans les premières années de formation un module obligatoire sur l'IA, à l'image de la mise en place dans la formation de tous les étudiants de premier cycle, à l'horizon 2025, d'un socle minimal de connaissances sur la transition écologique.
Enfin, la Commission de l'intelligence artificielle, qui a été auditionnée par notre délégation, appelle de ses voeux la création de nombreux espaces d'échange dans les lieux publics, appelés « cafés IA ». Le principe de ces ateliers pourrait donc aussi être adopté à l'échelle de chaque établissement scolaire ou de l'enseignement supérieur, ce qui permettrait de sensibiliser des publics variés, en particulier les parents d'élèves.
M. Bernard Fialaire, rapporteur. - Troisième et dernier axe : évaluer et poursuivre la recherche et les expérimentations.
Il faut d'abord se donner les moyens d'évaluer la pertinence des outils fournis au corps enseignant.
Il manque aujourd'hui une évaluation indépendante des outils d'IA mis à la disposition du corps enseignant. Les analyses d'impact sont la plupart du temps réalisées par les fournisseurs de services eux-mêmes. L'efficacité des outils n'est analysée qu'à l'aune des notes obtenues par les utilisateurs.
Pourtant l'enjeu va bien au-delà de la notation : il est de déterminer si les IA contribuent à développer chez les apprenants des compétences transférables, qui leur soient utiles au-delà du contrôle continu et du bachotage, dans la perspective d'une « éducation durable ». Apprendre ne se résume pas à emmagasiner des connaissances !
Ensuite, il faut approfondir la recherche sur les effets de l'IA générative et poursuivre les expérimentations. Historiquement, l'IA a longtemps servi à modéliser et mieux comprendre l'intelligence humaine dans le champ des sciences cognitives. Ce rapport s'est en quelque sorte inversé : l'IA générative généraliste a été développée sans réflexion particulière sur les usages, sans tenir compte de l'apport des neurosciences, a fortiori dans l'éducation, et avec l'objectif principal de fournir des réponses le plus rapidement possible.
Les preuves manquent ainsi quant à la capacité de l'IA générative à améliorer les résultats d'apprentissage et la compréhension du processus d'apprentissage lui-même. Les études sont rares car elles exigent une inscription dans le temps long et des moyens. Pour reprendre l'expression de Pierre-Yves Oudeyer, directeur de recherche à l'Inria, il s'agit d'une véritable « terra incognita ».
D'où la nécessité d'approfondir la recherche sur l'impact de l'IA générative sur les apprenants et les enseignants. La mise en place d'un observatoire public de l'IA à l'école pourrait contribuer à cet objectif. Son rôle serait de suivre et d'évaluer les usages éducatifs de l'IA à travers la réalisation d'études de cohorte sur le long terme et à grande échelle. Seraient ainsi étudiées l'influence de l'IA sur les façons de travailler et ses conséquences sur les capacités de concentration, de travail en équipe et la créativité ou encore sur le développement cognitif, émotif et relationnel.
Compte tenu du rythme de développement des IA, il conviendrait en outre d'encourager dans les écoles des expérimentations pilotes sur l'utilisation de l'IA, en tirant les leçons des succès et en reproduisant à plus grande échelle les pratiques qui ont fait leurs preuves sur un territoire académique.
Dernière évolution qui nous paraît indispensable : réfléchir à un renforcement du recours à l'IA pour le pilotage de la politique éducative.
De nombreuses données relatives à la « performance » du système éducatif sont collectées, notamment celles issues des évaluations nationales. Or il apparaît que ces données sont aujourd'hui sous-exploitées alors qu'elles pourraient être réinvesties pour améliorer les parcours d'apprentissage et mieux cibler les efforts, ainsi que commencent à le faire d'autres pays comme le Canada.
Il nous paraît donc souhaitable de faire aboutir une réflexion sur l'apport de l'IA à un pilotage plus fin par la donnée, dans le respect bien sûr des cadres juridiques en vigueur.
Telles sont, Madame la Présidente, mes chers collègues, les conclusions que nous souhaitions porter à votre connaissance. Nous vous remercions de votre attention.
Mme Christine Lavarde, présidente. - Merci de la qualité de votre travail. En tant que mère de famille, je peux personnellement témoigner de l'intérêt et du plaisir à apprendre que peuvent susciter certaines applications d'intelligence artificielle particulièrement encourageantes dans les apprentissages, par exemple de l'anglais comme langue étrangère. Mais dans la sphère privée, le recours à l'intelligence artificielle pour accompagner l'éducation des enfants dépend beaucoup de l'engagement des familles en raison du coût des solutions payantes. De ce point de vue, il faut être vigilant à ne pas recréer un fossé entre ceux qui ont les moyens et ceux qui en sont dépourvus.
Mme Anne Ventalon. - Je salue la richesse de vos travaux et votre analyse de l'impact positif que pourrait avoir l'intelligence artificielle dans l'éducation mais aussi des inquiétudes des parties prenantes. Nous avions fait le même constat dans le domaine de la santé.
En tant qu'ancien professeur d'anglais, j'ai conscience du fait que l'arrivée de l'intelligence artificielle remet en question nos pratiques. Cela étant, les outils de l'intelligence artificielle doivent être pris en compte et il faut progressivement s'adapter. Où en est-on de l'évaluation des pratiques des enseignants à cet égard ? Nous avons besoin d'une formation transdisciplinaire et d'une culture de l'intelligence artificielle. Quelle est l'offre de formation disponible aujourd'hui ?
Mme Sylvie Vermeillet. - Je salue sans réserve la qualité de vos travaux que je trouve passionnants. Je souhaiterais revenir à la « terra incognita » à laquelle vous faites référence. De la même façon que nous avons besoin d'une autorisation de mise sur le marché pour des médicaments, pourquoi accepterions-nous l'arrivée de solutions d'intelligence artificielle pour lesquelles nous ne savons pas si nos enfants sont suffisamment protégés ? Faut-il légiférer pour autoriser ou interdire l'accès à ces outils ? On connaît les avantages mais aussi les risques, voire les conséquences dramatiques.
M. Christian Redon-Sarrazy. - Si nous souhaitons garantir l'égalité d'accès aux outils d'intelligence artificielle, on ne peut pas faire dépendre cet accès des seuls moyens financiers des parents. Comment faire pour généraliser l'accès aux outils disponibles dans le cadre scolaire ? La question du coût se pose.
M. Khalifé Khalifé. - Je me réjouis d'avoir rejoint votre délégation il y a quelques semaines et vous félicite pour votre travail. Le questionnement sur la place de l'intelligence artificielle dans l'éducation ne peut faire abstraction du problème des écrans auxquels sont beaucoup exposés nos enfants aujourd'hui.
Je fais par ailleurs partie d'un groupe de travail sur les apports du cahier numérique à l'école. Ce cahier numérique est de plus en plus diffusé. L'intelligence artificielle doit être prise en compte non de façon isolée mais dans ce contexte général du numérique à l'école.
M. Stéphane Sautarel. - Je souhaite revenir sur un point qui me paraît essentiel. Au-delà des moyens et des outils, l'identification des compétences à développer pour se servir de l'intelligence artificielle est centrale. Il s'agit d'apprendre à apprendre. À cet égard, votre rapport inclut un schéma des cinq catégories de compétences qui est particulièrement intéressant : maîtrise de la langue, pensée computationnelle, créativité, compétences relationnelles, pensée critique et esprit encyclopédique.
M. Christian Bruyen, rapporteur. - En effet, ce travail sur les compétences est essentiel. C'est d'ailleurs pourquoi l'enseignant doit rester au centre du dispositif.
M. Bernard Fialaire, rapporteur. - S'agissant de la nécessité de protéger les enfants, des règles s'appliquent, en particulier au niveau européen. On ne peut pas faire comme si tous les enfants n'avaient pas facilement accès aux outils de l'intelligence artificielle générative. Il faut construire des outils en collaboration avec l'Éducation nationale et avec les enseignants pour s'assurer de leur visée pédagogique. Parallèlement, l'enseignement à l'usage de l'intelligence artificielle est fondamental. On s'aperçoit tout de même que grâce à l'éducation aux médias et à l'information (EMI), les jeunes savent aujourd'hui qu'il faut se méfier des réseaux sociaux, ce qui ne les empêche pas de s'en servir, et pas toujours de façon exemplaire. Ils ont conscience que l'information peut être orientée. Il faut continuer de les former à utiliser les outils.
Nous nous sommes aussi rendu compte que l'éducation nationale et l'enseignement supérieur n'utilisaient pas forcément les mêmes outils. Si la performance de la filière française des EdTech est reconnue, l'enseignement supérieur utilise encore beaucoup les outils conçus par les Gafam. Nous avons en France des mathématiciens de rang mondial, mais tout l'enjeu est de les garder en France pour le développement de nos propres outils.
S'agissant des évaluations nationales, nous disposons théoriquement d'une masse de données dont il faut s'interroger sur l'utilité dans une perspective d'amélioration du pilotage. La possibilité pour les acteurs privés de s'en saisir peut se poser.
M. Christian Bruyen, rapporteur. - Comme nous l'avons indiqué, la volonté du corps éducatif, pris dans son ensemble, de s'approprier l'intelligence artificielle reste limitée. C'est pourquoi la formation est nécessaire. En ce qui concerne les usages de l'intelligence artificielle par les enseignants, les services ministériels ne disposent pas d'un recensement exhaustif mais les grandes tendances sont connues. Beaucoup d'expérimentations sont réalisées au niveau individuel.
Il faudra également être attentifs à former des formateurs. C'est là l'une des ambitions des « IA clusters » dans le cadre de France 2030. Cependant, chaque université ne pourra disposer d'un nombre suffisant d'experts en intelligence artificielle pour former des milliers d'étudiants. Des mutualisations seront donc nécessaires.
S'agissant des licences, en ce qui concerne les outils disponibles dans le cadre des P2IA, leur volumétrie est fixée par le ministère.
Face aux solutions développées par les Gafam et utilisées en dehors de l'enceinte de l'école, l'enjeu est de développer des outils souverains, qui s'appuient sur des données contrôlées.
Mme Christine Lavarde, présidente. - Merci pour vos réponses. Je soumets à présent au vote l'adoption du rapport.
La délégation adopte, à l'unanimité, le rapport et en autorise la publication.
La réunion est close à 14 h 55.