Depuis trois ans, l’IA générative s’installe partout, à grande vitesse.
Dans les slides, tout est simple : plus d’IA = plus de performance, plus de compétitivité, plus de productivité.
Sur le terrain, c’est autre chose : injonctions, pression, discours d’“inévitabilité” et sentiment diffus de ne pas vraiment avoir été consulté.

On ne parle pas ici d’un nouvel Excel ou d’un Word plus malin.

On parle d’un changement de paradigme :

  • dans la manière dont on délègue notre jugement à des systèmes opaques ;
  • dans la façon dont on redéfinit ce qu’est un “bon travailleur” (rapide, augmenté, disponible 24/7) ;
  • dans le type de monde qu’on contribue à fabriquer, avec des infrastructures énergivores et des imaginaires très marqués par le techno‑solutionnisme et, parfois, le transhumanisme.

L’IA ne relève donc pas seulement de la conduite du changement ou de la mise à niveau des compétences : elle s’inscrit pleinement dans ce que les didacticiens appellent une question socialement vive (QSV).
C’est‑à‑dire une question qui fait controverse dans la société, dans les savoirs d’experts, et dans les espaces de formation eux‑mêmes.
Je reviendrai plus en détail sur ce concept de QSV – et sur ce qu’il change pour le L&D et les organisations – dans un prochain article.


Quand la performance devient un vecteur d’embrigadement

Aujourd’hui, l’adoption de l’IA au travail est souvent portée par trois registres :

  • la peur (“si tu ne t’y mets pas, tu vas être largué”),
  • la fascination (“c’est magique, regarde comme c’est puissant”),
  • la performance (“tu feras la même chose en deux fois moins de temps”).

Tout cela n’est pas faux… mais c’est très incomplet.

Ce qui est rarement nommé, c’est :

  • le coût attentionnel d’outils qui accélèrent tout, tout le temps,
  • le glissement progressif vers une docilité technologique (“je ne sais plus décider sans mon assistant”),
  • la pression implicite à être toujours plus efficace, plus vite, sans temps mort pour douter, digérer, contester, ralentir.

Ce n’est pas un complot. C’est un embrigadement doux : une combinaison de narratifs, d’indicateurs, d’outils déployés en masse et de culture de la performance qui rend très difficile, symboliquement, de dire “non”, “pas comme ça” ou simplement “pas tout, pas partout, pas tout de suite”.

Quelques ordres de grandeur sur l’“AI resistance”

  • Une enquête relayée par Fortune* en avril 2026, menée auprès de 3 750 salariés et managers dans 14 pays, montre que 54% ont contourné les outils d’IA fournis par leur entreprise au moins une fois dans les 30 derniers jours et 33% ne les ont pas utilisés une seule fois.
  • Au total, près de 80% des travailleurs en entreprise évitent, rejettent ou n’adoptent pas réellement les outils IA que leurs organisations déploient.
  • En France, l’INSEE** estime que seules 10% des entreprises de 10 salariés ou plus utilisaient au moins une technologie d’IA en 2024, avec un taux qui monte à 33% pour les entreprises de 250 salariés ou plus.

L’usage de l’IA reste donc à la fois concentré (dans les grandes entreprises) et controversé (forte résistance côté salariés), loin du récit d’une adoption fluide et unanime.


La résistance n’est pas un bug : c’est un mécanisme de régulation

Quand une société pousse trop fort dans un sens, elle finit toujours par produire ses propres forces de rappel.
L’industrialisation a produit le droit du travail.
La société de consommation a produit les mouvements écologistes.
La course à la productivité a produit les réflexions sur la qualité de vie au travail.

Pourquoi en serait-il autrement avec l’IA ?

Refuser certains usages, ralentir, poser des conditions, demander des garanties, réclamer des espaces sans IA :

  • ce n’est pas être “en retard”,
  • ce n’est pas être “réfractaire au progrès”,
  • c’est un réflexe de protection du vivant, du sens et de la dignité.

On peut parfaitement reconnaître le potentiel de l’IA tout en refusant son déploiement brutal, sans débat, dans tous les interstices de nos métiers.
On peut être pro-apprentissage, pro-innovation, et hostile à l’idée que tout doive être médié par une machine, tout le temps.


Plus l’IA sera présente, plus il faudra des espaces… sans IA

On sous-estime à quel point le problème n’est pas seulement “pour ou contre l’IA”, mais “quels espaces voulons-nous préserver hors IA”.

Si l’IA devient :

  • le filtre de nos recherches,
  • l’intermédiaire de nos échanges,
  • le copilote systématique de nos productions,

alors nous aurons d’autant plus besoin de :

  • temps de travail lents, sans assistance, pour réapprendre à penser par nous-mêmes,
  • espaces de discussion où l’on ne produit pas de données, où l’on peut se tromper sans que tout soit loggé,
  • moments de friction, d’effort, de silence, qui sont le terreau de la réflexion profonde et de la créativité vraie.

Comme toute nouveauté puissante, l’IA est probablement sur-employée aujourd’hui.
Par facilité, par curiosité, par FOMO.
Le discernement viendra aussi par la capacité à dire : “ici, elle a du sens”, et “là, non, je veux que ce soit un espace humain, non augmenté”.


Notre responsabilité de travailleurs du savoir

Si vous lisez ce post, vous êtes probablement dans cette catégorie des “knowledge workers” : consultants, formateurs, managers, créateurs, experts, chercheurs, etc.

Nous sommes, volontairement ou non, des multiplicateurs de pratiques.
Ce que nous acceptons, banalisons, relayons, devient vite la norme.

Nous avons, à ce titre, une responsabilité particulière :

  • rappeler que l’IA n’est pas neutre, ni dans ses effets sociaux, ni dans ses impacts écologiques ;
  • refuser que la résistance soit pathologisée (“il faut traiter les poches de résistance”) plutôt que entendue ;
  • créer et défendre des espaces de travail sans IA, assumés comme tels, pour préserver l’effort, la lenteur, la parole incarnée ;
  • documenter les signaux faibles : fatigue, anxiété, perte de sens, homogénéisation de la pensée, et pas seulement les gains de productivité ;
  • poser la question politique derrière la question technique : “dans quel type de monde cette architecture technique nous fait-elle entrer, et le voulons-nous vraiment ?”

En guise de boussole

Je ne suis ni pour ni contre l’IA “en bloc”.
Je suis pour une écologie du travail et de l’apprentissage où l’IA est un médiateur parmi d’autres, et où l’humain garde :

  • le droit au doute,
  • le droit au ralentissement,
  • le droit au refus, sans être immédiatement disqualifié.
Résister, aujourd’hui, ce n’est peut‑être pas tourner le dos à l’avenir.
C’est refuser de déléguer notre futur à des infrastructures et à des imaginaires qui se déploient sans nous, sur notre dos, au nom de notre performance.

#AIResistance
#AdoptionIA
#FutureOfWork
#QuestionsSocialementVives
#LearningAndDevelopment
#EthiqueDuNumerique


Sources


Je conçois des écosystèmes apprenants pour les équipes L&D et les organismes de formation. Fondateur d’ATAWAK et auteur de « aiaiaiaiai ! – Apprendre et partager le savoir dans un monde liquide ». Maître de conférences associé à l’Université Sorbonne Nouvelle – UFR Sciences de l’information et de la communication.

2617-0093-01

Partager cet article

Partager sur Facebook
Partager sur X
Partager sur LinkedIn

Écrit par