You are currently viewing J’ai lu pour vous : Former à l’ère de l’IA (Editions EMS, 2026)

J’ai lu pour vous : Former à l’ère de l’IA (Editions EMS, 2026)

Référence bibliographique : Martinache, G., & Zerbib, R. (dir.). (2026). Former à l’ère de l’IA : Gouvernance, pédagogie, transformations. Éditions EMS.


Vue d’ensemble rapide pour le lecteur pressé

L’intelligence artificielle (IA) ne constitue pas une simple évolution technique, mais une rupture systémique qui percute de plein fouet l’enseignement supérieur. L’ouvrage Former à l’ère de l’IA, dirigé par Geoffrey Martinache et Romain Zerbib, dresse un état des lieux lucide des bouleversements en cours :
Un choc institutionnel (« Strike ») : les modèles traditionnels de gouvernance sont obsolètes face à la vitesse de l’IA. Les établissements doivent impérativement reprendre la main pour éviter une « gouvernance algorithmique » opaque imposée par les géants technologiques et garantir la souveraineté des données étudiantes,.
La mutation de l’enseignant : la posture du transmetteur de savoir cède la place à celle de l’orchestrateur et de l’architecte pédagogique. L’IA permet enfin de réaliser la promesse de la personnalisation de masse (Adaptive Learning), libérant l’enseignant pour un accompagnement humain à haute valeur ajoutée,.
Le péril cognitif : l’usage passif de l’IA (délégation totale ou « LLM-to-Brain ») menace les étudiants d’atrophie intellectuelle et de « complaisance cognitive ».
La réponse pédagogique : pour contrer ce risque, l’ouvrage prône une stratégie « Brain-to-LLM », où l’effort cognitif humain précède systématiquement l’assistance de la machine. L’objectif n’est pas de former à l’IA, mais de former des esprits critiques capables de collaborer avec elle sans s’y soumettre,.
Enjeu clé : passer d’une logique de stock de connaissances à une logique de flux, pour développer une véritable « Intelligence Humaine Augmentée ».

Survivre au choc de l’IA : de la paralysie à la réinvention pédagogique

L’irruption de ChatGPT en novembre 2022 a marqué une rupture. Pour la première fois, le grand public, et avec lui, les élèves et les étudiants, a eu accès à une technologie capable de produire du texte, de résoudre des problèmes et de simuler le raisonnement humain. Face à ce raz-de-marée, le monde de l’éducation oscille souvent entre fascination technophile et panique interdictionniste1.

L’ouvrage collectif Former à l’ère de l’IA tente de dépasser cette dichotomie. Réunissant une trentaine de contributeurs (directeurs d’écoles, chercheurs, ingénieurs pédagogiques), il pose un diagnostic lucide : l’IA n’est pas un simple outil de plus, c’est un changement de milieu. Elle ne se contente pas d’aider à faire la classe, elle redéfinit la raison d’être de l’institution scolaire et universitaire.

Cet article propose de traverser les trois grands axes de l’ouvrage, la gouvernance, la pédagogie et les compétences, pour offrir aux enseignants et techno-pédagogues une vue d’ensemble des défis qui les attendent.

I. Le choc institutionnel : « Strike » et « Game Over »

L’ouvrage s’ouvre sur un constat de fragilité institutionnelle. Jusqu’à présent, l’enseignement supérieur avait réussi à intégrer le numérique sans changer fondamentalement sa structure : on ajoutait des briques technologiques (LMS, tablettes, visio) au modèle existant.

La métaphore du jeu de quilles

Bernard Belletante propose une image frappante pour décrire la situation actuelle : celle du jeu de quilles. Auparavant, les réformes ou les nouvelles technologies renversaient quelques quilles, que l’institution s’empressait de relever pour reprendre la partie à l’identique. Avec l’IA, c’est un « Strike ». Toutes les quilles sont à terre. Le jeu tel que nous le connaissions est fini (« Game Over »).

Pourquoi une telle radicalité ? Parce que l’IA remet en cause le monopole de l’institution sur la transmission et la validation des savoirs. L’école, traditionnellement organisée comme un « stock » de savoirs (programmes figés, temps long des diplômes), est percutée par la logique de « flux » de l’IA (savoir instantané, mise à jour permanente).

Le risque d’une gouvernance algorithmique

L’un des dangers majeurs identifiés par les auteurs est la perte de souveraineté. Bernard Ramanantsoa alerte sur le risque de voir la gouvernance académique (les conseils d’administration, les comités pédagogiques) remplacée par une « gouvernance algorithmique » opaque.

Si les établissements délèguent aveuglément la personnalisation des parcours et l’évaluation à des plateformes tierces (souvent américaines ou chinoises), ils risquent de perdre la maîtrise de la donnée étudiante, qui est le nouvel or noir de l’éducation. L’institution ne serait plus alors qu’un fournisseur de « matière première numérique » (les étudiants) pour des géants de la Tech qui, eux, piloteraient réellement les apprentissages.

II. La mutation du métier : De transmetteur à orchestrateur

Pour l’enseignant et le techno-pédagogue, le message de l’ouvrage est clair : la posture du « sachant » qui dispense son cours magistral est devenue intenable. L’information est partout, accessible et synthétisable par n’importe quel étudiant disposant d’un smartphone.

L’enseignant comme architecte

Le rôle de l’enseignant glisse inévitablement vers celui d’un « orchestrateur » ou d’un « architecte d’apprentissage ». Sa valeur ajoutée ne réside plus dans le contenu qu’il délivre, mais dans sa capacité à :

  1. Concevoir des expériences : scénariser des parcours complexes où l’étudiant doit agir, chercher et collaborer.
  2. Garantir le sens : aider l’étudiant à naviguer dans la surabondance d’informations et à vérifier la fiabilité des réponses de la machine.
  3. Maintenir le lien social : dans un monde automatisé, la présence humaine, l’empathie et le débat contradictoire deviennent des produits de luxe que l’IA ne peut simuler.

L’avènement de l’Adaptive Learning

C’est le Saint Graal de la techno-pédagogie : la personnalisation de masse. Plusieurs contributeurs, comme Michel Bur ou Frédérique Guénot, soulignent que l’IA rend enfin possible ce vieux rêve pédagogique.

L’IA permet d’analyser en temps réel les lacunes d’un étudiant et de lui proposer des exercices sur-mesure (remédiation), adaptés à son rythme. Là où un enseignant face à 30 élèves ne peut s’adapter individuellement à chacun à chaque instant, l’IA le peut. Des outils comme Adaptiv’Math ou les accélérateurs d’apprentissage de Microsoft illustrent cette capacité à offrir un parcours différencié sans alourdir la charge mentale de l’enseignant.

L’inclusion par la technologie (CUA)

L’ouvrage met également en avant l’apport de l’IA pour la Conception Universelle des Apprentissages (CUA). Julie Higounet explique comment l’IA facilite l’inclusion des élèves à besoins particuliers (DYS, allophones, handicaps). En quelques secondes, une IA générative peut transformer un texte complexe en schéma, en podcast audio, ou en version simplifiée, offrant ainsi de multiples moyens de représentation du savoir sans demander des heures de préparation supplémentaire à l’enseignant.

III. Le défi cognitif : Comment éviter que l’IA ne nous rende bêtes ?

C’est sans doute la partie la plus critique et la plus stimulante de l’ouvrage pour les pédagogues. L’utilisation de l’IA comporte un risque majeur : celui de la « complaisance cognitive » ou de l’atrophie des capacités intellectuelles.

Le syndrome du « LLM-to-Brain »

Lucie Dhorne développe une analyse passionnante sur les dangers de la délégation cognitive. Elle distingue deux modes d’utilisation :

  • LLM-to-Brain (L’IA d’abord) : l’étudiant demande à l’IA de faire le travail (résumé, plan, rédaction) puis tente de se l’approprier. Les études montrent que cette méthode conduit à une activité neuronale plus faible et à une moins bonne mémorisation. Le cerveau, ayant « sous-traité » l’effort, n’imprime pas l’information.
  • Brain-to-LLM (Le cerveau d’abord) : l’étudiant doit d’abord fournir un effort cognitif (faire un brouillon, structurer ses idées, poser des hypothèses) avant de solliciter l’IA pour améliorer, critiquer ou compléter son travail.

L’ouvrage insiste : pour que l’IA soit un levier d’apprentissage (une Intelligence Humaine Augmentée) et non une béquille, la pédagogie doit imposer le modèle « Brain-to-LLM ».

La perte des fondamentaux

Marius Bertolucci tire la sonnette d’alarme sur l’état cognitif des étudiants actuels, déjà fragilisés par une surexposition aux écrans (baisse de l’attention, difficultés de lecture profonde). Il met en garde contre l’illusion que l’IA pourrait compenser ces lacunes. Au contraire, pour bien utiliser l’IA, il faut déjà être expert. Un étudiant qui ne maîtrise pas le sujet ne peut pas évaluer la qualité de la réponse de l’IA ni détecter ses « hallucinations ». Le paradoxe est cruel : l’outil est le plus utile à ceux qui en ont le moins besoin (les experts) et potentiellement dangereux pour ceux qui s’en servent le plus (les novices).

IV. Repenser l’évaluation : La fin du devoir à la maison ?

L’évaluation est le point de friction immédiat pour tous les enseignants. Avec des outils capables de rédiger des dissertations ou de résoudre des équations en quelques secondes, les méthodes traditionnelles vacillent.

Vers une évaluation du processus

Tamim Elbasha et Stefan Crisan explorent les nouvelles voies de l’évaluation. Puisque le « produit fini » (le devoir rendu) peut être généré par une machine, l’évaluation doit se déplacer vers :

  • L’oral et la défense : vérifier l’appropriation des connaissances en direct.
  • L’évaluation du processus : noter la méthodologie, les brouillons, et la capacité à dialoguer avec l’IA (le « prompting »).
  • L’analyse critique : demander aux étudiants de générer un contenu avec l’IA, puis de le critiquer, de le corriger et de le sourcer. Cécile Godé et Régis Meissonier citent l’exemple d’enseignants demandant aux étudiants de trouver les erreurs dans un texte généré par ChatGPT sur une étude de cas fictive.

La créativité sous tension

Dans les domaines artistiques, Maud Chalmel et Philippe Lépinard abordent l’inquiétude des illustrateurs. Si l’IA peut générer des images époustouflantes, elle tend aussi à standardiser l’esthétique et à produire des visuels stéréotypés. L’enjeu pédagogique est de former les étudiants à utiliser l’IA comme un outil d’idéation (brainstorming visuel) tout en préservant leur singularité et leur capacité technique, pour ne pas devenir de simples « sélectionneurs » d’images.

V. Ingénierie pédagogique : Un métier en pleine réinvention

Pour les ingénieurs pédagogiques, l’IA est un levier de productivité colossal, mais aussi une exigence de montée en compétences. Marion Trigodet et Rony Germon expliquent que le métier ne consiste plus seulement à « produire des contenus » (ce que l’IA fait très bien et très vite), mais à concevoir des écosystèmes.

L’ingénieur pédagogique devient un stratège. Il doit :

  • Maîtriser le prompt engineering pour créer des assistants virtuels ou des tuteurs personnalisés pour les étudiants.
  • Analyser les données d’apprentissage (Learning Analytics) pour ajuster les parcours.
  • Concevoir des « systèmes » (Learning Design Systems) où l’IA assure la cohérence et la mise à jour des contenus.

VI. Conclusion

L’ouvrage Former à l’ère de l’IA est une somme riche et indispensable pour quiconque souhaite comprendre la tectonique des plaques qui s’opère actuellement dans l’éducation. Sa grande force réside dans son refus du techno-solutionnisme béat. Si les opportunités (personnalisation, gain de temps, inclusion) sont largement détaillées, les risques (perte de souveraineté, atrophie cognitive, standardisation) le sont tout autant.

Points forts :

  1. L’équilibre des points de vue : le livre fait dialoguer des visions stratégiques (directeurs d’écoles) avec des approches très terrain (enseignants, designers).
  2. L’ancrage pratique : des concepts comme le « Brain-to-LLM » ou les exemples d’utilisation de la CUA offrent des pistes immédiatement applicables en classe.
  3. La lucidité politique : l’ouvrage n’élude pas la question économique et géopolitique. Il rappelle que l’éducation est un marché convoité et que l’IA est le cheval de Troie des GAFAM dans l’école.

Cependant, à la lecture de l’ensemble des contributions, une tension non résolue émerge, que l’on pourrait qualifier de « Paradoxe de l’Expertise ».

L’ouvrage plaide pour que l’enseignant devienne un « orchestrateur » et l’étudiant un « pilote » de l’IA. Mais cette vision suppose un niveau de maîtrise et d’esprit critique très élevé. Or, comme le soulignent certains chapitres, le niveau cognitif et attentionnel des étudiants baisse. Il y a un risque réel que l’écart se creuse entre :

  • Une élite éducative capable d’utiliser l’IA comme un levier de puissance (Brain-to-LLM).
  • Une masse d’apprenants qui utiliseront l’IA comme une prothèse de facilité (LLM-to-Brain), déléguant leur pensée à la machine.

En somme, Former à l’ère de l’IA est moins un manuel technique qu’un cri d’alarme constructif. Il se distingue par une grande lucidité politique et une qualité rédactionnelle qui rend la complexité accessible.

Il invite à reprendre le pouvoir sur la machine : l’IA doit rester un « copilote » et non devenir le commandant de bord. Pour les établissements, le choix est désormais binaire : anticiper cette mutation pour former des citoyens libres, ou subir une obsolescence programmée.

La question reste ouverte : avons-nous les moyens, aujourd’hui, de financer cette intelligence humaine augmentée pour tous ?« 


  1. Dans le contexte de cet ouvrage, le terme « interdictionniste » qualifie une posture défensive adoptée par certains acteurs de l’enseignement (institutions, enseignants) face à l’arrivée des IA génératives. Elle consiste à tenter de bannir purement et simplement l’usage de ces outils par les étudiants. ↩︎