Et si le vrai choc lié à l’IA n’était pas technologique… mais mental / cognitif ? Il va falloir penser autrement à l’ère de l’IA.
Depuis des décennies, les organisations (entreprises comme établissements d’enseignement supérieur) ont appris à décider dans un monde qui semblait relativement stable : on collecte des informations, on analyse, on tranche, on exécute. Une logique rassurante. Linéaire. Cumulative. Et, en apparence, déterministe : « si j’ai les bonnes données et le bon modèle, j’aurai la bonne réponse ». Sauf que ce régime de pensée est en train de se fissurer sur deux fronts… simultanément !
D’un côté, la volumétrie de données et d’informations ne se contente plus d’augmenter : elle change d’échelle. Même si l’on évite les chiffres, on le sent tous : rapports, dashboards, e-mails, contenus, signaux faibles, discussions, vidéos, podcasts, documents internes… et désormais, contenus générés. L’information devient un environnement, pas un stock.
De l’autre, l’IA, et en particulier l’IA générative, ne « raisonne » pas comme nos systèmes décisionnels traditionnels. Elle ne produit pas des certitudes. Elle produit des propositions plausibles. Elle fonctionne en probabilités, en distributions, en approximation. Autrement dit : elle nous force à quitter le confort du déterminisme.
Ces deux bascules se renforcent mutuellement. Et c’est là que le sujet devient intéressant : ce n’est pas seulement un problème d’outils, c’est un problème de posture cognitive. Une invitation (ou une contrainte) à changer notre manière de penser (et d’enseigner).
Quand l’information change d’échelle, la pensée linéaire devient un goulot d’étranglement
Dans une logique linéaire, on avance comme sur une route : étape 1, étape 2, étape 3. On peut “faire le tour” du sujet. On peut viser l’exhaustivité. On peut espérer réduire l’incertitude en ajoutant des données.
Mais lorsque l’information devient surabondante, quelque chose d’essentiel se produit : l’ajout d’information n’ajoute plus mécaniquement de clarté. Il ajoute souvent… du bruit. Des contradictions. Des angles morts. Des effets de contexte. Des signaux faibles noyés. Et un coût cognitif énorme.
On retrouve ici un paradoxe très concret : plus on a de matière, plus on a besoin de choisir ce qu’on ne regarde pas, au risque de littéralement saturer notre cerveau (avec des syndromes de type fatigue cognitive sur la durée).
Dans les organisations, la pensée « cumulative » ressemble souvent à cela : on empile des éléments, des analyses, des benchmarks, des slides, des réunions, des validations. On espère qu’à force d’accumuler, une évidence finira par apparaître. Comme si la décision était le résultat naturel d’une somme d’informations.
Sauf que l’excès d’informations ne mène pas à l’évidence. Il mène à la saturation, ou à la paralysie. Et parfois à un phénomène encore plus insidieux : on confond la production d’artefacts (reporting, slides, documents) avec la progression réelle de la compréhension.
Le passage à une « réflexion exponentielle » ne veut pas dire que notre cerveau devient exponentiel. Il veut dire que l’environnement informationnel change de régime, et que la pensée linéaire devient insuffisante pour lui répondre.
Dans un monde où l’information déborde, la compétence clé n’est plus seulement « analyser », mais donner du sens : hiérarchiser, relier, contextualiser, construire des modèles d’interprétation… et accepter qu’ils soient temporaires.
Quand l’IA devient un outil courant, le déterminisme devient une illusion coûteuse
Le deuxième choc est plus subtil, parce qu’il touche à notre rapport à la vérité. Les systèmes traditionnels en entreprise et dans l’enseignement supérieur se sont construits sur un imaginaire déterministe : il existe une bonne réponse, et notre job est de la trouver. Le tableur, le modèle financier, le règlement, la grille d’évaluation… tout cela rassure parce que cela promet une forme de stabilité.
L’IA générative fait l’inverse. Elle produit une réponse qui « a l’air juste », parce qu’elle est statistiquement plausible, linguistiquement cohérente, souvent utile. Mais ce n’est pas une preuve. C’est une proposition, qu’on peut renouveler à l’infini.
Ce point change tout : on ne peut pas traiter une sortie d’IA comme un fait. On doit la traiter comme un brouillon intelligent. Une hypothèse. Un point de départ.
Ce qui nous amène à un renversement de posture : le décideur n’est plus celui qui « reçoit la réponse » ; il devient celui qui orchestre une enquête. Il doit apprendre à dialoguer, tester, vérifier, trianguler, contextualiser.
Autrement dit, l’IA ne remplace pas le jugement. Elle le déplace. Elle exige un jugement plus fréquent, plus fin, plus conscient. C’est cela qu’il va falloir renforcer chez nos jeunes (voir mon article précédent sur les compétences cognitives, émotionnelles et comportementales à l’ère de l’IA)
Une analogie aide : la météo. Personne de rationnel n’exige une certitude à 100 % avant de décider. On regarde une probabilité de pluie, une incertitude, un contexte. On arbitre. On ajuste. On prévoit des options. On accepte que la décision soit une gestion du risque, pas une démonstration mathématique.
L’IA nous met dans ce même rapport au monde : un monde de probabilités, de scénarios, d’itérations.
Le cumul des deux phénomènes crée un piège : l’accumulation devient l’ennemie de l’apprentissage
Pris séparément, chacun de ces changements est déjà exigeant. Ensemble, ils créent un piège majeur face à notre mode de pensée habituel. Face à l’explosion d’informations, notre réflexe est de vouloir « sécuriser » : accumuler davantage, verrouiller davantage, cadrer davantage. Face à un outil probabiliste, notre réflexe est de vouloir « compenser » : demander plus de validations, plus de règles, plus de procédures.
Le résultat ? Une organisation qui s’alourdit au moment même où elle devrait accélérer son apprentissage.
C’est là que l’approche cumulative montre ses limites. Elle suppose un monde où l’on peut avancer vers une solution finale en empilant des certitudes. Or, dans un monde probabiliste et saturé d’information, la certitude complète est rarement accessible, et bien souvent inutile, puisque ça va changer rapidement.
Dans ce nouveau régime, la vraie question n’est plus : « Avons-nous tout compris ? » mais : « Avons-nous appris assez pour agir intelligemment, et apprendre encore en agissant ? »
C’est un changement de logique.
Le design thinking permet de penser autrement : non pas comme méthode, mais comme réflexe
On a parfois réduit le design thinking à une boîte à outils de post-its. C’est dommage, parce que sa valeur profonde est ailleurs : c’est une manière de décider dans l’incertitude, centrée sur l’usage réel.
Quand l’information explose et que les réponses deviennent probabilistes, la meilleure stratégie n’est pas de construire un château de certitudes. C’est de construire des boucles de feedback.
Le design thinking, au fond, dit quelque chose de simple : tant que vous n’avez pas confronté une idée à l’usage, vous ne savez pas. Vous supposez. Vous imaginez. Vous projetez. Et l’on confond souvent projection et réalité.
Ce qui change aujourd’hui, c’est que cette logique s’étend bien au-delà du produit ou de l’expérience client. Elle devient pertinente pour la stratégie, l’organisation, la pédagogie, la transformation numérique.
Dans un monde probabiliste, une stratégie n’est plus un plan gravé. C’est un ensemble d’hypothèses qui se renforcent ou se corrigent au contact du réel.
Dans un monde saturé d’information, un diagnostic n’est plus un document final. C’est une carte temporaire qui doit être mise à jour en continu.
L’itération devient donc une discipline de décision, pas une étape de projet.
Entreprises : décider plus vite ne veut pas dire décider « au hasard »
Quand on adopte une posture cumulative, on a tendance à repousser le moment du test : « on finalise », « on cadre », « on valide », « on lance quand ce sera prêt ». Le problème, c’est que « prêt » est une illusion dans un environnement changeant.
Avec une posture itérative, on cherche au contraire à rendre le test possible tôt, et à apprendre avec un coût maîtrisé. On ne confond pas rapidité et précipitation : on confond rapidité et apprentissage accéléré.
Pour les décideurs en entreprise, l’enjeu n’est pas de céder à la vitesse pour la vitesse. L’enjeu est de réduire le temps entre une hypothèse et un apprentissage.
L’IA, dans cette dynamique, devient un amplificateur. Elle aide à explorer, générer, simuler, reformuler, prototyper. Mais elle ne remplace pas l’ancrage dans l’usage : ce qui compte, c’est ce que font les clients, les collaborateurs, les partenaires. Pas ce que « dit » un modèle. C’est ici que l’innovation d’usage prend toute sa force : le sujet n’est pas « déployer l’IA ». Le sujet est « quels usages nouveaux deviennent possibles, utiles, désirables, soutenables dans mon organisation ? » Et comment le sait-on ? Par itération. C’est l’ère du test & learn généralisé : à l’échelle individuelle pour « donner vie » à ses idées, à l’échelle d’une organisation pour faire du prototypage rapide. Là aussi c’est penser autrement la décision.
Enseignement supérieur : passer de la transmission cumulative à la formation du jugement
Dans l’enseignement supérieur, le double changement de régime est encore plus délicat, parce qu’il touche au cœur de notre mission : produire et transmettre des savoirs. Il faut penser autrement l’enseignement supérieur également !
En effet, si l’information devient surabondante et si des machines peuvent produire des textes plausibles, la valeur d’un diplômé ne peut plus se limiter à « savoir restituer ». Elle se déplace vers la capacité à : comprendre, structurer, critiquer, arbitrer, vérifier, contextualiser, créer du sens. Autrement dit : le jugement devient central.
L’IA pousse à repenser des éléments très concrets : les modalités d’évaluation, la place des projets, le rapport à l’erreur, l’apprentissage de la pensée probabiliste (et pas seulement statistique), l’éducation à la fiabilité des sources, la capacité à dialoguer avec des systèmes qui proposent mais ne prouvent pas.
On revient alors à l’esprit du design thinking : apprendre en faisant, tester des hypothèses, confronter une production au réel, itérer. Non pas pour « faire moderne », mais parce que c’est un entraînement à la décision dans un monde incertain.
Passer du culte de la réponse au culte de la boucle (permanente)
Dans un monde linéaire et déterministe, la valeur était souvent associée à la qualité de la réponse finale. Dans un monde exponentiel et probabiliste, la valeur se déplace vers la qualité de la boucle : la capacité à apprendre, corriger, ajuster, mettre à jour, re-tester.
C’est une bascule culturelle. Elle touche au leadership, à la gouvernance, à l’organisation du travail, à la pédagogie, à la manière dont on « prouve » qu’on avance. Et elle peut être inconfortable, parce qu’elle oblige à reconnaître quelque chose : dans beaucoup de sujets complexes, la certitude n’existe pas. Ce qui existe, c’est une meilleure ou une moins bonne manière d’explorer.
Alors oui, si je devais résumer : nous entrons dans une ère où l’accumulation n’est plus une stratégie suffisante. Elle peut même devenir un frein. L’avenir appartient aux organisations capables de faire deux choses à la fois : absorber l’explosion informationnelle sans se noyer, et utiliser des outils probabilistes sans se raconter d’histoires. La clé, c’est l’itération centrée sur l’usage.
Ce n’est pas un renoncement à l’exigence. C’est une exigence différente : non plus l’illusion du plan parfait, mais la discipline du progrès continu. Ca aussi c’est devoir penser autrement !