Conférence NEOMA x Mistral AI sur IA et enseignement supérieur

IA et enseignement supérieur : un rapport important, mais pas encore transformateur

Le rapport officiel IA et enseignement supérieur : formation, structuration et appropriation par la société (MESR, juin 2025) se présente comme une boussole nationale pour une technologie qui bouleverse déjà nos pratiques. Ses 26 recommandations couvrent un spectre très large : de la formation des étudiants à la souveraineté numérique, en passant par la mutualisation des communs et la gouvernance.

L’ambition est claire : transformer l’enseignement supérieur en acteur de l’appropriation sociétale de l’intelligence artificielle (IA). Mais, derrière cette cohérence, se cachent trois fragilités :

  1. une vision (partielle car il occulte, un peu artificiellement la dimension recherche) encore beaucoup trop centralisée,
  2. une approche largement universitaire (et non enseignement supérieur dans sa pluralité) et techniciste,
  3. une sous-estimation de la dimension humaine et organisationnelle des leviers de transformation.

En d’autres termes : je trouve que ce rapport est nécessaire mais insuffisant en l’état pour enclencher une réelle modification des pratiques dans l’enseignement supérieur français (et la pluralité qui le caractérise). Par ailleurs le manque d’analyse de cas européens autour du sujet m’inquiète sur la capacité de l’état à ne jamais regarder ce qui se fait de bien en ces terres ou proches de celles-ci !

1. Vision et pilotage : du cap politique à la “charte-as-code”

La mission insiste sur la dispersion actuelle des usages, « majoritairement individuels » et peu encadrés. Elle propose une charte nationale (Reco 24–25) et un institut “IA, éducation et société” comme colonne vertébrale.

Mais une charte purement déclarative est un tigre de papier, qui plus est, à un niveau national, où les signataires de la charte n’auraient pas forcément contribué, réfléchi ou au moins intégré les notions fondamentales défendues par ce document. Pour être crédible dans la durée, elle doit devenir une charte-as-code : intégrée aux pratiques des établissements, ancrée dans la culture des parties prenantes et aussi, si possible, dans les LMS et ENT, avec déclaration d’usage lors du dépôt d’un rendu, conservation des journaux IA conformes au RGPD, et logs pédagogiques exploitables pour la recherche. Autrement dit, le pilotage par le texte doit s’accompagner d’un pilotage par la culture organisationnelle et le code (informatique).

2. Mutualisation et communs : une excellente intuition, mais à industrialiser

Le rapport défend la création d’une plateforme nationale de communs (Reco 18–20). Une avancée notable : éviter la dispersion, réduire les inégalités entre établissements et partager les cas d’usage. Mais, à mon sens, pour éviter l’effet “bibliothèque morte”, cette plateforme doit adopter une logique produit :

  • taxonomie claire (cours, prompts, datasets, cas d’usage) et partagée,
  • licences ouvertes (CC-BY/SA),
  • indicateurs d’adoption (nombre de téléchargements, réutilisations),
  • API pour intégration dans les LMS.

Les Pays-Bas, avec EduGenAI, montrent la voie : un environnement souverain, interopérable, doté d’un DPIA centralisé. La France ne peut se contenter d’un entrepôt documentaire, elle doit créer un véritable outil vivant, dynamique, centré sur ses utilisateurs, et sur ses communautés apprenantes (académiques).

3. Formation des étudiants et enseignants : des objectifs justes, un cadre encore flou

Le rapport vise la formation de tous les étudiants à un usage raisonné et éthique de l’IA (Reco 1). Mais la recommandation reste trop générale, incantatoire et ne donne aucune piste opérationnelle. Heureusement que certains établissements (dont NEOMA) n’ont pas attendu pour former massivement (90% de ses professeurs et plus de 8300 étudiants à date) à un usage intelligent des intelligences artificielles génératives car pour l’heure, l’action du Ministère sur le sujet semble particulièrement timide. Et c’est dommage car cela devrait être une priorité absolue. En faisant de la « masse » et non de l’élitisme.

Un cadre plus opérationnel à ce qui est proposé dans le rapport me semble nécessaire :

  • Niveau 1 – Acculturation (6–8h) : principes de base, biais, enjeux éthiques.
  • Niveau 2 – Pratique guidée (15–20h) : ateliers, prompts disciplinaires, cas concrets.
  • Niveau 3 – Supervision/éthique (20–30h) : usage critique, régulation, audit d’IA.

Ces trois niveaux devraient être associés à des micro-crédits ECTS “X+IA” intégrés dans chaque discipline et dans la trajectoire d’évolution académique des étudiants.

Côté enseignants, la transformation pédagogique nécessite un crédit de service : 1 à 3 ECTS/an pour re-designer les cours (car oui, il faut transformer ses cours à l’ère de l’IA pour redonner du sens à l’expérience pédagogique vécue), tester de nouvelles approches, documenter les pratiques et enfin partager et mutualiser. Sans temps dégagé, l’objectif restera théorique, et ne verra aucune action concrète naître sur le terrain en dépit des sempiternels 2.5% d’innovateurs et des 13.5% d’early adopters (mon constat sur le terrain, c’est qu’on est plutôt à 10% en moyenne en cumulant ces deux profils !).

4. Évaluation : dépasser la logique de détection

La mission constate l’impasse des détecteurs IA et ouvre la voie à des alternatives. Enfin ! Pour autant est érigé régulièrement le « utiliser l’IA c’est tricher » ! Cela culpabilise donc les élèves (voire les professeurs), les incite à le dissimuler, et nuit en retour à une démarche de communauté apprenante où tout le monde pourrait apprendre et partager, pour peu que cela se fasse dans la transparence. C’est là que la vision de l’établissement, la charte, et le débat ouvert autour de cette technologie devient fondamental !

Trois pistes s’imposent à mon sens autour de cela :

  1. Évaluations “sans/avec IA” : phase socle sans IA, puis phase méta-compétences avec IA (analyse critique, cadrage, test).
  2. Portfolios critiques : argumenter et répliquer sans IA une partie du travail, à l’écrit ou à l’oral d’ailleurs.
  3. Traces automatisées : dépôt chiffré des prompts et outputs (prompt-to-product).

L’obsession actuelle pour la triche détourne le débat. Le vrai enjeu est de concevoir des évaluations compatibles avec l’IA, pas de courir après l’impossible détection. Je le répète : la détection de contenus IA ne fonctionne pas et ne sont pas bons pour l’éducation !

5. Infrastructures et souveraineté : aller au-delà du diagnostic

Le rapport établit un lien direct entre infrastructures et souveraineté (Reco 17). Il souligne les risques liés au Cloud Act américain et la rareté de modèles totalement ouverts.

Mais il manque l’étape opérationnelle : créer un AI Gateway ESR (Enseignement Supérieur et Recherche). Ce portail servirait de reverse-proxy multi-modèles (open/propriétaires), avec routage souverain par défaut, quotas carbone, journaux pseudonymisés et SDK pour EdTech.

Des prototypes comme RAGaRenn (Université de Rennes) montrent qu’une telle passerelle est réaliste. Il faut l’institutionnaliser et la généraliser… et pour cela investir ! Pas de souveraineté réelle sans infrastructure. Le problème ? Il y a presque 3 millions d’étudiants dans le supérieur en France (2023-2024), ce qui amène au bas mot à une infrastructure à 5 000 GPU pour le supérieur (sur le versant éducation)…!

6. L’oubli de l’Europe et des grandes écoles françaises : un angle mort révélateur

L’absence des études de cas de NEOMA, d’autres grandes écoles françaises et d’initiatives européenne est un défaut criant (pour être tout à fait juste, quelques noms sont égrenés timidement dans une parenthèse en p.79). Pour échanger avec un grand nombre d’entre elles, beaucoup d’institutions ont déjà :

Nous avons d’ailleurs sensibilisé en présentiel plus d’une centaine de professeurs de prépa HEC de l’APHEC à l’IA générative lors d’un après-midi événement et nous accompagnons plus de 350 professeurs de classes préparatoires en les formant à l’usage des IA génératives via notre plateforme NEOMA Online.

Je ne parle ici que de ce que je connais particulièrement bien, mais dans d’autres établissements il y a aussi probablement de belles initiatives (je pense par exemple à mes amis de CenraleSupélec). Ignorer ce type d’expertise dans un rapport qui cherche à inspirer tout un secteur à l’échelle nationale, c’est négliger :

Pour résumé, ce rapport se concentre majoritairement sur l’Université (publique) et en oublie la richesse de l’ESR français et sa réussite mondiale (qui repose aussi sur la diversité de ses acteurs). A ce stade, vous me trouvez peut-être critique sur ce rapport, mais je vais aller un cran plus loin, car de manière plus structurelle encore, et en dépit de l’immense qualité de ces auteurs, il y a des angles morts qui, oubliés, viendront limiter la portée de la transformation réelle du secteur de l’enseignement supérieur en France.

7. Trois angles morts structurels du rapport IA et enseignement supérieur

7.1. La tentation de la centralisation

La création d’un institut national “IA, éducation et société” (Reco 26) illustre la logique descendante, quasi tradition française, pour tenter de résoudre un retard. Classique dans sa proposition, louable en apparence, elle risque de se transformer en nouvelle strate bureaucratique, peu efficiente face à une technologie encore foncièrement immature (au sens bougeant encore énormément et très, voire trop, fréquemment).

Or l’ESR français est trop diversifié pour être piloté efficacement depuis un seul centre. Un modèle plus souple serait mieux adapté. L’État fixant les grands principes, fournissant l’infrastructure, l’interopérabilité, la confiance envers tels ou tels modèles, les établissements innovant localement.

Cette logique descendante risque de provoquer une forme d’attentisme et de créer des difficultés dans les choix des établissements pilotes (et donc bénéficiant d’accès privilégiés à des modèles ou des infrastructures). Beaucoup d’établissements risquent d’attendre la directive nationale au lieu d’expérimenter en continuer, et ce faisant, d’enclencher la réelle dynamique transformative.

7.2. L’oubli de la dimension socio-organisationnelle

Le rapport aborde surtout les infrastructures, la pédagogie et les outils. Mais il survole la culture organisationnelle. Or, l’IA n’est pas une transformation technique, mais un choc culturel, managérial et humain.

L’IA n’est pas une transformation technique, mais un choc culturel, managérial et humain.

Pour le dire autrement, travailler la transformation numérique d’une organisation, c’est aussi s’attaquer à des dimensions socio-organisationnelles, comme (et de manière non exhaustive) :

  • Résistance au changement : la formation ne suffira pas. Les freins relèvent du pouvoir, de l’identité professionnelle, du management, du changement d’habitude, du manque de confiance, du manque d’envie, de temps, d’intérêt, etc.
  • Travail en silos : l’IA impose une transversalité forte entre SI, pédagogie, juridique, et RH. Ce changement organisationnel est littéralement absent du rapport, laissant supposer que l’organisation actuelle de tous les établissements supérieurs sont en capacité d’absorber le choc. Personnellement, je ne le crois pas… même si de beaux progrès ont été réalisés ces dernières années.
  • Posture managériale : quid du rôle des cadres intermédiaires ? Comment instaurer une culture du droit à l’erreur et du pilotage agile ?

Sans réponse à ces questions, la mise en œuvre risque de se heurter à un mur culturel qui n’aura d’autres logiques que de rejeter la transformation.

7.3. L’étudiant : bénéficiaire passif ou acteur central ?

Le troisième angle mort de ce rapport à mon sens est l’étudiant. En effet, le rapport positionne l’étudiant comme bénéficiaire de formations et d’outils. Rarement comme co-créateur. Là encore, face à une telle transformation tout le monde peut apprendre de tout le monde sur les usages possibles de l’IA dans l’enseignement. Il est donc intéressant dans une logique de passage à l’échelle de positionner l’étudiant aussi comme acteur de cette exploration. C’est le sens en tout cas du partenariat que NEOMA a avec Mistral : déployer massivement cette technologie pour découvrir et passer à l’échelle de nouveaux usages et de nouvelles pratiques. Mais pour pouvoir opérer cela, il faut déjà avoir fait les étapes de sensibilisation, formation, changement culturel, etc.

C’est une erreur stratégique que d’oublier les étudiants comme acteur du changement. Les usages les plus disruptifs émergent aussi des initiatives étudiantes (applications, clubs IA, collectifs). Les ignorer, c’est développer des solutions déconnectées du terrain, du réel, et souvent moins efficaces.

Impliquer les étudiants comme partenaires actifs (projets, hackathons, tiers-lieux, gouvernance) renforcerait leur engagement et l’adoption réelle de cette technologie qui de toute façon transformera leur vie professionnelle.

8. Financement : réaliste, mais fragile

L’enveloppe annoncée (300–500 M€ sur 5 ans) paraît réaliste pour démarrer. Mais elle sous-estime les coûts récurrents et les frais opérationnels de fonctionnement :

  • abonnement aux modèles,
  • coûts d’inférence,
  • hausse inévitable des prix des fournisseurs privés (s’il y a recours à ces éditeurs).

La dépendance budgétaire qui résultera de cette imprévision risque de mettre en tension durable les établissements qui au final se lancerait. Pour autant l’usage de l’IA comme facteur d’économie par un accroissement de l’efficacité opérationnelle n’est pas une chimère. Bien travailler, l’économie peut tout à fait être au rendez-vous.

9. De la feuille de route à la culture vivante

Le rapport, comme souvent, semble à nouveau constituer une feuille de route descendante : définir une stratégie nationale, la décliner dans les établissements, confier la coordination à un institut.

Ce modèle a au moins le mérite de la cohérence. Mais il est mal adapté à une technologie mouvante, rapide, et profondément contextuelle comme l’IA et l’IA générative.

Ce qu’il faut, c’est au contraire une culture vivante de l’IA, distribuée, inclusive, capable d’évoluer par capillarité :

  • Expérimentations locales financées (bottom-up).
  • Communautés de pratique ouvertes (enseignants, étudiants, administratifs).
  • Cadre national de principes (interopérabilité, éthique, souveraineté).
  • Mécanismes de diffusion organiques : open-source, communs, tiers-lieux.

Bref, je reste convaincue que la stratégie nationale IA pour le supérieur doit ressembler moins à un plan quinquennal et plus à un écosystème vivant à animer.

Conclusion

Pour résumé, le rapport IA et enseignement supérieur a le mérite d’exister, de poser un cadre et de dessiner une ambition nationale (au troisième anniversaire de ChatGPT, il est temps !). Mais il souffre d’une tentation centralisatrice, d’un prisme trop universitaire et d’une sous-estimation de la dimension humaine et organisationnelle.

Pour réussir, la France doit :

  1. Passer de la charte à la charte-as-code,
  2. Transformer la plateforme de communs en produit vivant,
  3. Intégrer l’agilité de tous les établissements du supérieur et des EdTech,
  4. Reconnaître les étudiants comme co-créateurs,
  5. Passer d’une feuille de route descendante à une culture vivante, distribuée et inclusive.

Là où le rapport mise sur une stratégie nationale très structurée, je plaide pour une approche plus agile, ascendante, distribuée. C’est dans la diversité des expérimentations locales, dans l’itération rapide et dans la co-construction avec les étudiants et les enseignants que se construit une culture de l’IA réellement vivante et inclusive.

En résumé : la transformation par l’IA ne réussira pas seulement par décret, mais par la capacité de chaque établissement à en faire un projet collectif, pragmatique et humain.

C’est à ce prix que l’IA deviendra une opportunité collective, plutôt qu’un pari technocratique et que nous aurons peut-être une chance de développer autour de l’IA des avantages compétitifs à l’échelle mondiale.

Alain Goudey

Imaginer l'Ecole du futur à NEOMA, créer l'identité sonore des marques avec Atoomedia & Mediavea, conseiller sur la transformation numérique avec Sociacom | Expert en éducation, technologies disruptives, IA & design sonore.

Voir tous les articles de Alain Goudey →

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *