La prochaine mission du L&D ne consiste pas à supprimer la difficulté, mais à en designer intelligemment la forme au service des compétences. Tant que nous confondons expérience fluide, IA confortable et apprentissage réel, nous renforçons un paradoxe dangereux : plus la formation paraît facile, plus les compétences s’atrophient.


Ce que les normes IA du Royaume‑Uni disent vraiment de l’apprentissage

En Angleterre, le Department for Education a publié en 2025, puis mis à jour en janvier 2026, des standards de sécurité pour les produits d’IA générative utilisés en éducation. Ce texte, Generative AI: product safety standards, fixe les capacités et les garde-fous que doivent respecter les outils pour être considérés comme sûrs dans des contextes scolaires et universitaires.
Derrière le ton administratif, le message est direct : des IA éducatives qui se comportent comme de simples moteurs de réponses, qui livrent des productions complètes d’emblée et encouragent les élèves à déléguer leur réflexion, posent un risque de déqualification cognitive.

Le ministère ne s’inquiète donc plus seulement de la triche ou des biais algorithmiques, mais d’un phénomène plus silencieux : la propension de certains outils à court-circuiter l’effort de pensée au lieu de le soutenir. La question n’est plus « faut-il de l’IA dans la formation ? », mais « comment éviter que l’IA ne désapprenne à penser aux apprenants ? ».

Cette inquiétude rejoint ce que de nombreux chercheurs en sciences de l’apprentissage rappellent depuis des années. Carl Hendrick et Jim Heal montrent par exemple que l’engagement observable reste un mauvais indicateur de ce qui s’inscrit réellement en mémoire : on peut être très actif, très occupé, tout en apprenant très peu. L’IA générative risque de pousser ce malentendu à son paroxysme : expérience fluide, contenus prémâchés, réponses immédiates… mais très peu de consolidation en profondeur.

C’est dans ce contexte que surgit ce que j’appelle le syndrome de Clara.


Le « syndrome de Clara » : quand l’IA mange le raisonnement

Clara est brillante, experte dans son domaine, mais elle ne sait plus rédiger une stratégie sans ouvrir ChatGPT. Au moindre frottement cognitif - cadrer une problématique, hiérarchiser des arguments, écrire un plan - elle délègue le raisonnement à la machine.

Le résultat est subtil : Clara produit plus vite, ses livrables sont propres, ses mails impeccables.
Mais, peu à peu, son cerveau ne fait plus le chemin. La capacité de synthèse, l’architecture des idées, la prise de décision argumentée : tout cela est externalisé dans l’outil, au lieu d’être consolidé en mémoire et en habiletés mentales.

Ce que vit Clara, ce n’est pas de la « productivité augmentée », c’est une décharge cognitive prolongée : elle sous-traite sa pensée.

La question pour le L&D est frontale : combien de dispositifs de formation entretiennent aujourd’hui ce syndrome, en proposant des parcours où l’apprenant ne rencontre presque jamais de vraie résistance intellectuelle ?

Engagement ≠ apprentissage : la science commence à s’impatienter

Pendant des années, le secteur a fait de l’engagement un KPI magique.
Temps passé, taux de complétion, nombre de clics, smileys satisfaits à chaud : ces signaux ont été pris pour des preuves d’apprentissage.

Dans sa revue de mars 2026, Carl Hendrick rappelle pourtant que l’engagement observable est un mauvais proxy de l’apprentissage réel. Ce n’est pas parce qu’un collaborateur regarde une vidéo bien montée, truffée de détails séduisants, qu’il encode durablement des connaissances ou qu’il sera capable de les mobiliser en situation.

Les travaux sur les seductive details montrent même l’inverse : plus l’expérience est saturée de stimuli plaisants, plus elle peut masquer un vide cognitif.​ L’apprenant a l’impression d’avoir « compris », mais ce sentiment de fluidité est souvent un leurre.

L’IA générative amplifie ce phénomène. Un prompt, trois puces, un schéma : tout semble clair, facile, digeste. Mais si l’outil fournit la structure à la place de l’apprenant, il lui retire l’effort de récupération, d’organisation et de reformulation, précisément ce qui construit la compétence.


L’efficiency paradox : ce qui aide à court terme nuit au long terme

Les équipes de Genio parlent de paradoxe de l’efficacité : ce qui semble le plus efficace à court terme (gagner du temps, obtenir la bonne réponse instantanément) est souvent ce qui nuit le plus à la consolidation en mémoire à long terme.
Une IA conçue comme un answer engine qui donne tout, tout de suite, optimise le ressenti d’efficacité mais détruit l’occasion d’apprendre.

Ce paradoxe est désormais pris au sérieux au niveau politique.
Le Department for Education au Royaume-Uni a publié en janvier 2026 des Generative AI Product Safety Standards qui demandent explicitement aux éditeurs de réduire le risque de cognitive deskilling et de limiter les mécanismes de réponse intégrale immédiate.

Les standards encouragent des approches de progressive disclosure : fournir d’abord des indices, des pistes, des feedbacks, avant de livrer une solution complète. Autrement dit : concevoir des outils qui structurent et soutiennent le raisonnement pas à pas au lieu de l’abolir.

Pour un département formation, la question devient stratégique : vos IA pédagogiques aident-elles les collaborateurs à mieux penser, ou les habituent-elles à ne plus penser du tout en livrant des réponses prêtes à consommer ?

Protéger l’hippocampe : ce que suggèrent les Super-Agers

Dans un post récent, je parlais des Super-Agers, ces octogénaires dont la mémoire rivalise avec celle de quinquagénaires.
Les études montrent qu’ils produisent au moins deux fois plus de nouveaux neurones dans l’hippocampe – région clé de la mémoire – que leurs pairs du même âge.

Les chercheurs restent prudents sur la causalité, mais convergent sur une idée forte : un cerveau qui reste performant est un cerveau régulièrement sollicité, confronté à de réels défis cognitifs et sociaux, pas un cerveau protégé en permanence de l’effort.
Pour le L&D, cela renforce une intuition importante : la difficulté n’est pas un bug de la formation, c’est une fonction vitale.

La mode du microlearning « zéro effort », des capsules ultra courtes et des résumés générés par IA risque d’être mal comprise lorsqu’elle est utilisée comme modèle unique.

Les Super-Agers nous rappellent une chose simple : protéger le cerveau de toute difficulté ne protège pas du déclin, cela peut au contraire en préparer le terrain.


Des « difficultés désirables » aux « beaux problèmes »

Les travaux d’Elizabeth et Robert Bjork sur les desirable difficulties sont limpides :
les conditions qui optimisent la performance immédiate ne sont pas celles qui optimisent l’apprentissage durable.

Parmi ces difficultés désirables, on retrouve espacements, alternance des tâches, tests de récupération, variation des contextes.
Toutes ont un point commun : elles ralentissent la sensation de progrès, mais renforcent la capacité à retrouver et transférer les connaissances.

Dans ce cadre, le rôle d’un L&D n’est pas de lisser chaque aspérité pour « faciliter la vie » de l’apprenant.
Son rôle est de designer de beaux problèmes :

  • des situations qui obligent à chercher, comparer, arbitrer ;
  • des tâches qui nécessitent de se tromper, reformuler, synthétiser ;
  • des projets où l’on doit expliciter son raisonnement, pas seulement cliquer sur « la bonne réponse ».
La bonne question n’est pas de savoir à quel point un parcours est fluide, mais de savoir  l’apprenant est réellement obligé de produire un effort cognitif utile.

De la prothèse à l’orthèse : programmer la friction générative

L’enjeu n’est pas de bannir l’IA des dispositifs de formation, mais de choisir son rôle :

  • IA prothèse : elle remplace le cerveau, répond à la place de l’apprenant, écrit à sa place, pense pour lui.
  • IA orthèse : elle soutient le cerveau, structure la réflexion, confronte, aide à aller plus loin que ce qu’il aurait produit seul.

L’apprentissage durable nécessite une friction générative.
Une IA qui donne la réponse immédiatement n’apporte rien pédagogiquement. Une IA qui questionne, demande d’expliciter la logique, invite à argumenter ou à choisir entre plusieurs options commence à devenir formatrice.

J’ai développé dans un autre post la façon dont l’IA tutrice redéfinit la valeur ajoutée du formateur et du prestataire, en s’alignant sur les usages désormais considérés comme matures : tutorat adaptatif, contenus personnalisés, assistance à la rétroaction, dans le prolongement des travaux de l’UNESCO et de l’OCDE.
Dans cet article, le point est plus radical : sans design de friction, même la meilleure IA tutrice reste un gadget de plus dans la stack.

Chez ATAWAK, c’est précisément ce qui structure nos agents d’apprentissage, les Tawakis TOMO.
Ils ne sont pas conçus pour déverser du contenu supplémentaire, mais pour accompagner la réflexion : poser des questions socratiques, proposer des désaxages, confronter des hypothèses, nourrir la réflexivité. L’IA n’y est pas un moteur de réponses, mais un partenaire de friction : elle challenge, relance, aide à voir autrement, là où un simple chatbot « sympa » se contenterait d’approuver.

Cette logique rend l’IA doublement intéressante :

  • révélateur de design pédagogique (si TOMO n’a rien à challenger, c’est que le dispositif est déjà trop lisse) ;
  • catalyseur de compétences réflexives, plutôt que d’externalisation silencieuse du raisonnement.

La résistance productive comme nouvelle hygiène du L&D

Dans un environnement liquide saturé d’IA, l’hygiène cognitive devient un sujet stratégique.
On parle souvent de détox numérique pour les écrans, beaucoup moins de détox cognitive pour les réponses instantanées.

Pour les directions formation et les directions RH, cela implique de revoir certains réflexes :

  • arrêter de promettre systématiquement « zéro effort » et « formation sans couture » ;
  • accepter que des moments de lenteur et de friction soient nécessaires dans un parcours ;
  • mesurer autre chose que le temps passé et le « like » : observer la qualité des productions, la clarté des raisonnements, la capacité à transférer dans le travail réel.
Former aux IA est indispensable. Former à ne pas perdre son esprit critique face à elles devient vital.

Un bon test pour vos dispositifs IA : repérer, dans vos parcours actuels, les moments où vos collaborateurs sont réellement obligés de produire de l’effort cognitif plutôt que de consommer une réponse.
Là où il ne reste plus aucun de ces moments, ce n’est pas l’IA qui a gagné… c’est l’apprentissage qui a disparu.


#LearningDesign
#Neurosciences
#IAEnFormation
#DesirableDifficulties
#FrictionGenerative
#DifficultesDesirables


Sources

Sur ce site, voir les posts :

Les réflexions de cet article sont développées en profondeur dans le Chapitre 7 de mon ouvrage aiaiaiaiai !, intitulé « Souveraineté cognitive et architecture de l'intelligence augmentée ». J'y analyse comment nous devons architecturer notre relation à la machine pour que l'IA agisse comme une véritable orthèse qui soutient la pensée, plutôt que comme une prothèse qui l'atrophie, en instaurant délibérément des moments de "résistance productive" pour garantir notre autonomie intellectuelle

aiaiaiaiai ! – Apprendre et partager le savoir dans un monde liquide, Yann Bonizec, Éditions Fluxus Mentis, 2025.

Découvir le livre

Je conçois des écosystèmes apprenants pour les équipes L&D et les organismes de formation. Fondateur d’ATAWAK et auteur de « aiaiaiaiai ! – Apprendre et partager le savoir dans un monde liquide ». Maître de conférences associé à l’Université Sorbonne Nouvelle – UFR Sciences de l’information et de la communication.

2612-0062-01

Partager cet article

Partager sur Facebook
Partager sur X
Partager sur LinkedIn

Écrit par