What 81000 people want from AI

Ce que 81 000 personnes attendent de l’IA : ce que révèle (et ce que ne dit pas) la grande enquête qualitative d’Anthropic

Le 18 mars 2026, Anthropic a publié ce qui constitue, selon ses auteurs, la plus grande étude qualitative jamais réalisée : 80 508 utilisateurs de Claude.ai, répartis dans 159 pays et s’exprimant en 70 langues, ont été interviewés par un agent conversationnel baptisé Anthropic Interviewer. Le dispositif est inédit par sa taille et par sa méthode : des entretiens ouverts, conduits par l’IA elle-même, puis catégorisés par des classifieurs eux aussi alimentés par Claude. L’étude restitue les espoirs, les usages concrets et les craintes de ces utilisateurs face à l’intelligence artificielle. C’est un travail ambitieux, richement illustré de témoignages, qui mérite qu’on s’y attarde autant pour ce qu’il nous apprend que pour ce qu’il laisse dans l’ombre.

PARTIE I — CE QUE L’ÉTUDE INDIQUE CLAIREMENT

1. Les attentes mondiales : neuf visions pour l’IA

L’étude demandait à chaque répondant ce qu’il souhaiterait idéalement que l’IA fasse pour lui (« If you could wave a magic wand, what would AI do for you? »). Les réponses ont été classées en neuf catégories principales :

RangVision% mondial
1Excellence professionnelle — Déléguer les tâches routinières pour se concentrer sur le travail stratégique18,8 %
2Transformation personnelle — Croissance personnelle, bien-être émotionnel, soutien thérapeutique13,7 %
3Gestion de vie (Life management) — Scaffolding cognitif, organisation, charge mentale13,5 %
4Liberté temporelle — Récupérer du temps pour la famille, les loisirs, le repos11,1 %
5Indépendance financière — Sécurité économique, revenus passifs, entrepreneuriat9,7 %
6Transformation sociétale — Résoudre pauvreté, maladie, climat, inégalités9,4 %
7Entrepreneuriat — Construire et scaler des entreprises avec l’IA comme levier8,7 %
8Apprentissage et croissance (Learning & growth) — IA comme tuteur personnalisé et accélérateur d’apprentissage8,4 %
9Expression créative — Donner vie à des projets artistiques (jeux, musique, films, livres)5,6 %

Trois méta-catégories émergent de cette distribution. Environ un tiers des répondants souhaitent que l’IA leur « fasse de la place dans leur vie » : plus de temps, d’argent, de bande passante mentale. Un quart aspire à un travail plus épanouissant et performant. Environ un cinquième veut devenir quelqu’un de meilleur : apprendre, guérir, grandir. Le reste se distribue entre créer quelque chose (expression créative) et réparer le monde (transformation sociétale).

Un point crucial : beaucoup de répondants ont commencé leur entretien en parlant de productivité, mais lorsque l’intervieweur creusait le « pourquoi » derrière cette aspiration, d’autres priorités émergeaient. Comme le résume un travailleur colombien : « Avec l’IA, je peux être plus efficace au travail… mardi dernier, cela m’a permis de cuisiner avec ma mère au lieu de finir mes tâches. » L’IA comme outil de productivité n’est souvent, en réalité, qu’un moyen vers une fin plus humaine.

2. L’IA délivre-t-elle ? 81 % disent oui

Lorsqu’on leur demande si l’IA a déjà concrètement progressé vers leur vision, 81 % des répondants répondent par l’affirmative. Les expériences rapportées se répartissent ainsi :

  • Productivité (32 %) — accélération spectaculaire des tâches professionnelles
  • L’IA n’a pas encore délivré (18,9 %) — attentes non satisfaites ou limites techniques
  • Partenariat cognitif (17,2 %) — brainstorming, affinage d’idées, résolution de problèmes
  • Apprentissage (9,9 %) — acquisition de nouvelles compétences grâce au tutorat adaptatif
  • Accessibilité technique (8,7 %) — des non-développeurs qui créent des applications
  • Synthèse de recherche (7,2 %) — traitement de volumes importants d’information
  • Soutien émotionnel (6,1 %) — espace sans jugement pour parler de situations difficiles

Les qualités de l’IA les plus fréquemment citées dans les témoignages de partenariat cognitif, d’apprentissage et de soutien émotionnel sont les mêmes : patience, disponibilité et absence de jugement. Comme le résume un universitaire américain : « C’est comme avoir un collègue de faculté qui sait beaucoup de choses, ne s’ennuie jamais, ne se fatigue jamais, et est disponible 24h/24. »

3. Les inquiétudes : 2,3 craintes par personne en moyenne

Les répondants expriment en moyenne 2,3 craintes distinctes (classification multi-label). Seuls 11 % n’expriment aucune inquiétude. Voici le classement mondial :

RangCrainte% mondial
1Manque de fiabilité (hallucinations, erreurs, fausses citations)26,7 %
2Emploi et économie (déplacement, chômage, inégalités)22,3 %
3Autonomie et agentivité (perte de contrôle humain, passivité)21,9 %
4Atrophie cognitive (perte de compétences, passivité intellectuelle)16,3 %
5Gouvernance (absence de cadre légal, responsabilité floue)14,7 %
6Désinformation (deepfakes, propagande, érosion du réel partagé)13,6 %
7Surveillance et vie privée13,1 %
8Usage malveillant (hacking, armes, fraudes)13,0 %
9Sens et créativité (dévalorisation de l’expression humaine)11,7 %
10Surrestriction (filtrage excessif, paternalisme)11,7 %
11Bien-être et dépendance (isolement, usage compulsif)11,2 %
12Sycophantie (IA trop complaisante, renforcement des biais)10,8 %
13Risque existentiel (superintelligence non alignée)6,7 %

Fait saillant : la crainte économique (emploi) est le prédicteur le plus puissant du sentiment global envers l’IA. Plus une personne craint pour l’emploi, plus son sentiment global est négatif.

4. Le « clair-obscur » : cinq tensions qui coexistent dans chaque individu

L’un des apports les plus intéressants de l’étude est l’identification de cinq tensions récurrentes entre bénéfices et risques, qui ne séparent pas les gens en « camps » mais cohabitent au sein des mêmes individus :

Tension 1 — Apprentissage vs. Atrophie cognitive. 33 % des répondants mentionnent les bénéfices de l’IA pour l’apprentissage, mais 17 % craignent l’atrophie cognitive. Parmi ceux qui vantent les bénéfices, 91 % parlent d’expérience concrète. Parmi ceux qui craignent l’atrophie, 46 % l’ont observée. Les éducateurs sont 2,5 à 3 fois plus susceptibles que la moyenne d’avoir constaté l’atrophie cognitive chez leurs étudiants.

Tension 2 — Meilleure prise de décision vs. Non-fiabilité. C’est la seule tension où le négatif dépasse le positif : 37 % citent la non-fiabilité comme problème, contre 22 % qui célèbrent l’aide à la décision. Près de la moitié des avocats ont été confrontés à des erreurs factuelles de l’IA.

Tension 3 — Soutien émotionnel vs. Dépendance. C’est la tension la plus intriquée : une personne qui valorise le soutien émotionnel de l’IA est trois fois plus susceptible de craindre également d’en devenir dépendante.

Tension 4 — Gain de temps vs. Productivité illusoire. 50 % mentionnent le gain de temps (le bénéfice le plus cité globalement), mais 18 % craignent que ce gain soit annulé par l’accélération des attentes. Un développeur freelance français résume : « Le ratio temps de travail/repos n’a pas du tout changé. Il faut juste courir de plus en plus vite pour rester sur place. »

Tension 5 — Autonomisation économique vs. Déplacement. La tension la plus spéculative (beaucoup de craintes ou d’espoirs hypothétiques). Les freelances créatifs sont le groupe le plus exposé : 23 % vivent le bénéfice économique et 17 % vivent la précarité — le positif et le négatif s’annulent presque.

C’est quelque chose que nous avions aussi identifié lors de notre recherche parue récemment dans Communications of the Association for Information Systems : « Legitimacy and Illegitimacy of Generative Artificial Intelligence in Higher Education: Perceptions from the French Management Context » by Régis Meissonier, Cécile Godé et al.

5. Focus sur l’Europe de l’Ouest (~15 000 répondants)

L’Europe de l’Ouest constitue le deuxième bassin de répondants après l’Amérique du Nord (~23 000) avec environ 15 000 participants. C’est l’une des régions les plus sceptiques au monde vis-à-vis de l’IA :

  • Sentiment positif net : seuls 64,4 % des répondants expriment un sentiment positif (taux de sentiment négatif de 35,6 %, parmi les plus élevés au monde avec l’Océanie à 35,5 % et l’Amérique du Nord à 34,5 %).
  • Inquiétude économique : 22,5 % (au-dessus de la moyenne mondiale de ~22 %).
  • Crainte distinctive : la surveillance et la vie privée sont la préoccupation la plus saillante en Europe de l’Ouest (17 %, contre une moyenne mondiale de 13,1 %). Comme le formule un employé néerlandais : « Si l’IA est principalement conçue pour les publicités, l’espionnage et des sorties fades, tout autour de moi devient intelligent d’une manière qui joue légèrement contre moi. »
  • Seuls 9 % des répondants ouest-européens ne formulent aucune inquiétude (contre 18 % en Afrique subsaharienne et 17 % en Asie centrale).

En matière de visions, l’Europe de l’Ouest se distingue par une forte demande de gestion de vie (life management) — l’IA comme scaffolding cognitif et assistant organisationnel. Un manager danois illustre cette aspiration : « Si l’IA gérait vraiment la charge mentale… elle me rendrait quelque chose d’inestimable : une attention indivise. » Un ingénieur logiciel également danois complète : « J’étais autrefois très créatif, mais maintenant je manque massivement de temps et la créativité est reléguée derrière les essentiels de la survie. »

Les régions riches et fortement exposées à l’IA (Europe de l’Ouest, Amérique du Nord, Océanie) veulent que l’IA gère la complexité de la vie. Les régions en développement veulent qu’elle crée de nouvelles opportunités.

6. Focus sur le « Learning » en Europe de l’Ouest

Au niveau mondial, 8,4 % des répondants identifient l’apprentissage (Learning & growth) comme leur vision principale pour l’IA. En Europe de l’Ouest, cette catégorie reste présente mais n’est pas parmi les visions dominantes : la région place davantage l’accent sur l’excellence professionnelle, la gestion de vie et la transformation personnelle.

Ce positionnement relatif du Learning est cohérent avec le profil de la région : dans un contexte où l’éducation est largement accessible et financée par les systèmes publics, l’IA comme « tuteur qui brise les barrières éducatives » résonne moins que dans des régions confrontées à des pénuries d’enseignants ou à des coûts prohibitifs d’accès à l’éducation.

En matière d’expérience concrète, les Européens de l’Ouest qui mentionnent le Learning décrivent plutôt un apprentissage volitif, personnel, de curiosité intellectuelle — apprendre une nouvelle langue, comprendre un domaine hors de leur expertise, satisfaire une curiosité. Un entrepreneur allemand résume : « J’ai probablement appris plus en six mois qu’en un diplôme universitaire. »

7. Le Learning à travers le monde : des attentes très différentes selon les régions

La comparaison régionale révèle des disparités frappantes dans l’importance accordée au Learning :

RégionLearning comme vision principaleContexte
Asie centrale~14 %Le plus élevé au monde — presque le double de la moyenne globale
Asie du Sud~13 %Deuxième rang — éducation vue comme levier de sortie de la pauvreté
Moyenne mondiale8,4 %
Europe de l’Ouest~7-8 % (estimé, proche de la moyenne)Accès éducatif déjà largement démocratisé
Amérique du Nord~7-8 % (estimé)Même profil que l’Europe de l’Ouest

L’étude note que le Learning est « disproportionnellement important » en Asie centrale et du Sud, où les utilisateurs « décrivent l’éducation comme un levier principal pour briser les cycles de pauvreté, citant les pénuries d’enseignants, la rétention des savoirs et les barrières de coût de l’éducation traditionnelle ».

Cette fracture est cruciale : dans les pays à revenus faibles et intermédiaires, l’IA-tuteur est perçue comme un égalisateur social, tandis que dans les pays riches, l’IA pour l’apprentissage est davantage un accélérateur de curiosité ou de reconversion.

La tension « Learning vs. Atrophie cognitive » se manifeste aussi différemment :

  • Les artisans et travailleurs manuels sont parmi les plus enthousiastes sur le Learning (45 % rapportent des bénéfices concrets) et presque aucun n’a observé d’atrophie cognitive (4 %).
  • Les étudiants vivent massivement les bénéfices (plus de la moitié en ont fait l’expérience), mais 16 % notent aussi des signes d’atrophie cognitive.
  • Les enseignants (24 %) et les universitaires (19 %) sont 2,5 à 3 fois plus susceptibles que la moyenne de constater l’atrophie chez les autres.

L’étude en tire un enseignement fort : les bénéfices de l’IA pour l’apprentissage semblent maximaux lorsque l’apprentissage est volontaire, par opposition aux contextes institutionnels où l’IA est plus facilement utilisée comme raccourci. C’est un message que je répète sans cesse : l’IA est un facteur d’augmentation si on s’en sert comme tel… mais ce n’est pas si souvent que ça le cas !

PARTIE II — ANALYSE CRITIQUE : CE QUE L’ÉTUDE NE DIT PAS (ENCORE)

1. Un biais d’échantillonnage fondamental : on n’interroge que les convaincus

C’est la limite la plus structurante de toute l’étude, et Anthropic la mentionne elle-même dans ses caveats : les 80 508 répondants sont tous des utilisateurs actifs de Claude.ai. Ils ont un compte, ils l’utilisent suffisamment pour avoir accepté de passer un entretien, et ils ont fait la démarche volontaire de participer. On est face à un échantillon d’auto-sélection maximal.

Cela signifie que l’étude ne capture en rien la voix des personnes qui :

  • n’utilisent pas l’IA (la majorité de la population mondiale) ;
  • ont essayé l’IA et l’ont abandonnée par déception ;
  • n’y ont pas accès pour des raisons économiques, linguistiques ou géographiques ;
  • s’y opposent par principe.

Le chiffre de « 67 % de sentiment positif » est donc celui des early adopters satisfaits, pas de la population mondiale. Extrapoler ce résultat à « ce que les gens veulent de l’IA » est, au mieux, un raccourci ; au pire, un biais de confirmation. Le titre même de l’étude — « What 81,000 People Want from AI » — devrait être lu comme « What 81,000 Claude users want from AI ».

2. L’intervieweur est aussi le produit : un problème de neutralité méthodologique

L’outil d’interview est une version de Claude promptée pour conduire un entretien. L’outil d’analyse est Claude lui-même (classification, extraction de citations). Le commanditaire est Anthropic, qui commercialise Claude. On est face à un dispositif où le juge, l’instrument de mesure et l’objet mesuré sont la même entité.

En sciences sociales classiques, ce type de configuration soulèverait des questions majeures de validité. Les répondants pouvaient-ils se sentir « observés » par le produit qu’ils évaluent ? Le classifieur Claude a-t-il pu reproduire certains biais de son propre entraînement dans la catégorisation des réponses ? Le prompt de l’intervieweur — qui demande d’abord la vision positive, puis les craintes — crée-t-il un effet de cadrage (framing) favorisant le positif ?

L’étude reconnaît ce dernier point et note que les répondants « ont peut-être fait moins d’efforts dans la partie sur les craintes ». Mais cette candeur ne résout pas le problème méthodologique : l’ordre des questions biaise structurellement les réponses.

3. L’absence de données brutes : transparence partielle

Anthropic publie l’article, un appendice méthodologique et le Quote Wall, mais pas les données brutes des 80 508 entretiens (même anonymisées). Les classifications, les pondérations et les corrélations sont le produit d’un pipeline propriétaire qui n’est pas reproductible par des chercheurs indépendants. Dans un domaine où la reproductibilité est un standard, cette opacité — bien que compréhensible pour des raisons de protection de la vie privée — limite la portée scientifique de l’étude.

Contrairement au rapport sur le marché du travail – voir mon article sur le sujet sur ce blog(Massenkoff & McCrory, 2026) qui a publié ses données sur HuggingFace, cette étude qualitative repose sur un « trust us ». Or, comme l’a montré la littérature sur les biais algorithmiques, les classifieurs de LLM reproduisent et parfois amplifient les biais de leur corpus d’entraînement. Sans accès aux données, impossible de vérifier si certaines catégories ont été sur- ou sous-représentées par le classifieur.

4. La dimension géographique : riche mais asymétrique

L’étude présente des données par grande région, ce qui constitue un apport réel. Mais la granularité est très inégale :

  • Amérique du Nord : ~23 000 répondants
  • Europe de l’Ouest : ~15 000 répondants
  • Asie de l’Est : ~10 000 répondants
  • Afrique subsaharienne : ~2 000 répondants
  • Asie centrale : chiffre non précisé, vraisemblablement quelques centaines

Les conclusions sur des régions comme l’Afrique subsaharienne, l’Asie centrale ou l’Afrique du Nord (~1 000 répondants) reposent sur des échantillons trop petits pour être statistiquement robustes, d’autant plus que la pénétration de Claude y est faible. Affirmer que le Learning est « disproportionnellement important en Asie centrale (14 %) » quand l’échantillon compte peut-être quelques centaines de personnes est fragile.

De plus, l’étude ne fournit aucune donnée par pays individuel au sein de l’Europe de l’Ouest (France, Allemagne, Pays-Bas, etc.), ce qui empêche toute analyse fine des spécificités nationales, pourtant considérables en matière de rapport à la technologie, de culture éducative et de cadre réglementaire (pensons au RGPD, à l’AI Act européen, aux traditions de protection du droit du travail).

5. Le Learning : une catégorie fourre-tout qui mériterait d’être décomposée

La catégorie « Learning & growth » agrège des réalités très différentes, et c’est dommage, car personnellement c’est évidemment celle qui m’intéresse le plus :

  • Un avocat indien qui surmonte sa phobie des mathématiques grâce à l’IA ;
  • Un parent australien qui utilise l’IA comme expert curriculaire pour son enfant ;
  • Un développeur ukrainien qui apprend C# et SQL pour obtenir un poste et échapper à la mobilisation militaire ;
  • Une mère au foyer américaine qui explore des domaines scientifiques par curiosité.

Ces usages relèvent de logiques fondamentalement différentes : reconversion professionnelle, éducation parentale, survie, curiosité intellectuelle. Les regrouper sous une même étiquette à 8,4 % masque des dynamiques qui, si elles étaient séparées, pourraient révéler des tendances autrement plus significatives, en particulier pour les politiques éducatives.

6. L’angle mort de l’IA dans l’éducation formelle

L’étude documente abondamment l’apprentissage informel et autodidacte assisté par l’IA. En revanche, elle est quasi muette sur l’intégration de l’IA dans les systèmes éducatifs formels — écoles, universités, formation professionnelle. C’est d’autant plus frappant que la tension Learning/Atrophie cognitive est l’une des plus riches de l’étude, et que les enseignants et universitaires y apparaissent comme les témoins les plus lucides de l’atrophie.

Pour l’enseignement supérieur, les implications sont pourtant considérables. Le fait que les bénéfices de l’IA pour l’apprentissage soient « maximaux lorsque l’apprentissage est volontaire » interpelle directement les institutions qui intègrent l’IA dans leurs cursus : comment préserver le caractère volitif de l’apprentissage dans un contexte d’obligations académiques ? Comment éviter que l’IA ne devienne un raccourci institutionnalisé ?

7. Ce que l’étude ne dit pas sur la France et l’Europe de l’Ouest

L’étude agrège 15 000 répondants ouest-européens sans distinction nationale. Or :

  • La France a une tradition spécifique de régulation numérique (CNIL, RGPD, AI Act) qui colore le rapport à l’IA ;
  • Le droit du travail français, avec ses conventions collectives et protections, crée un contexte radicalement différent de celui des États-Unis pour penser le déplacement d’emplois ;
  • Le système éducatif français, avec son modèle de service public, pose la question de l’IA en éducation dans des termes différents de ceux de l’Inde ou du Cameroun (accès) ou des États-Unis (coût) ;
  • La culture française de scepticisme technologique et de débat public sur le numérique (rapports du Haut Conseil de l’éducation, Commission Villani, etc.) mériterait une analyse propre.

Une transposition directe des résultats globaux au contexte français serait imprudente, d’autant plus que la France n’est pas le pays européen le plus pénétré par l’usage de Claude.

8. La narration optimiste : un choix éditorial assumé mais non neutre

L’article d’Anthropic est remarquablement bien écrit. Les témoignages sont émouvants, les visualisations sont soignées, et la structure narrative est celle d’un storytelling maîtrisé. Mais c’est justement cette qualité narrative qui doit alerter le lecteur critique.

L’architecture de l’article place systématiquement les bénéfices en premier et les craintes en second. Les citations les plus longues et les plus détaillées concernent des success stories. Le vocabulaire employé pour les bénéfices est riche et spécifique (« catalyzed real changes », « opening new possibilities »), tandis que celui des craintes est plus abstrait et distancié.

L’étude mentionne des témoignages bouleversants — un soldat ukrainien qui trouve dans l’IA un soutien dans la guerre, une femme en deuil qui confie à Claude une solitude absolue — mais ne s’attarde pas sur les questions systémiques que ces témoignages soulèvent : pourquoi ces personnes n’ont-elles pas accès à un soutien humain ? L’IA comme palliatif d’une défaillance institutionnelle est-elle une solution ou un symptôme ?

9. L’absence de la dimension temporelle

L’étude est une photographie, prise en décembre 2025, d’un phénomène en mutation rapide. Elle ne permet aucune comparaison longitudinale : ces attentes ont-elles évolué depuis l’arrivée de ChatGPT fin 2022 ? Les craintes se sont-elles amplifiées ou atténuées avec l’expérience ? La proportion de répondants évoquant l’atrophie cognitive a-t-elle augmenté ?

Anthropic annonce d’ailleurs une étude de suivi sur le bien-être des utilisateurs de Claude dans le temps. C’est précisément ce type de données longitudinales qui manque pour passer de la description (« voici ce que les gens disent ») à l’analyse causale (« voici ce que l’IA fait effectivement aux gens »).

Conclusion

L’étude « What 81,000 People Want from AI » est un objet intellectuel fascinant et sans précédent par son échelle. Elle offre une cartographie inédite des espoirs et des craintes des utilisateurs d’IA à travers le monde, et son concept de « clair-obscur » — ces tensions entre bénéfices et risques qui coexistent au sein d’un même individu — est une contribution conceptuelle réelle au débat public.

Mais il faut la lire pour ce qu’elle est : une étude de marché qualitative conduite par un acteur commercial sur sa propre base d’utilisateurs, avec ses propres outils, et non une enquête d’opinion représentative. Son principal mérite est de montrer que les utilisateurs d’IA ne sont ni des technoptimistes béats ni des néo-luddites apeurés, mais des individus complexes qui naviguent entre espoir et inquiétude — et que cette navigation est d’autant plus intéressante qu’elle varie profondément selon les régions du monde, les professions et les conditions de vie.

Pour l’Europe de l’Ouest en particulier, et plus encore pour la France, l’étude soulève plus de questions qu’elle n’en résout : comment articuler les aspirations d’allègement cognitif et de gestion de vie avec le cadre réglementaire européen ? Comment penser le Learning assisté par l’IA dans un contexte éducatif public très différent de celui de l’Inde ou du Cameroun ? Comment éviter que la « productivité illusoire » ne devienne la norme dans le monde du travail français ? Ces questions appellent des travaux spécifiques, ancrés dans nos réalités institutionnelles — et pas seulement la transposition de résultats globaux.

Alain Goudey

Imaginer l'Ecole du futur à NEOMA, créer l'identité sonore des marques avec Atoomedia & Mediavea, conseiller sur la transformation numérique avec Sociacom | Expert en éducation, technologies disruptives, IA & design sonore.

Voir tous les articles de Alain Goudey →

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *