La semaine 19 ne déroge pas à la règle : les décideurs y découvrent à la fois des opportunités, des dépendances et de nouveaux risques systémiques autour de la stratégie IA en entreprise. Cet article propose une lecture synthétique.
Pour chaque actualité, vous trouverez les faits, leur impact opérationnel, et les questions à porter en comité de direction… où à se poser. Bonne lecture à toutes et tous !
Au sommaire
SpaceX loue Colossus 1 à Anthropic, la dépendance change de camp
Les faits
Trois mois après avoir qualifié Anthropic d’« evil » sur X, Elon Musk change de cap. SpaceX, qui a absorbé xAI au début 2026, vient de signer un accord majeur. SpaceXAI met l’intégralité de la capacité de calcul de Colossus 1 à disposition d’Anthropic.
Cela représente plus de 220 000 GPU Nvidia et plus de 300 mégawatts, dans un site basé à Memphis. Les analystes estiment le revenu annuel pour SpaceX entre 3 et 4 milliards de dollars. Anthropic a également exprimé son intérêt pour développer, avec SpaceX, des capacités de calcul orbitales de plusieurs gigawatts.
Petit détail amusant. Musk se réserve le droit de « reprendre le compute » si Anthropic « engage des actions nuisibles à l’humanité ». Cette clause n’est pas dans le communiqué officiel.
Pourquoi cela change la donne dans la stratégie IA en entreprise
Un des trois grands laboratoires d’IA frontière dépend désormais d’un concurrent direct. Cette dépendance réorganise toute la chaîne de valeur. Elle expose Anthropic à un risque de gouvernance inédit.
Pour les entreprises clientes, l’enjeu est double. La disponibilité de Claude s’améliore mécaniquement. La stabilité contractuelle dépend désormais d’une relation entre deux dirigeants au tempérament volatil. Gene Munster, de Deepwater Asset Management, estime à 80% les chances que l’accord tienne deux ans.
Vos fournisseurs d’IA sont-ils eux-mêmes captifs de leurs concurrents ? La question paraît absurde. Elle devient stratégique. Une cartographie des dépendances de second rang s’impose désormais dans toute analyse de risque IA.
Anthropic structure sa recherche face à une croissance hors norme
Quatre axes pour absorber le choc
Anthropic croît à un rythme jamais vu. Dario Amodei a parlé d’une croissance multipliée par 80 en 2026, pour atteindre un revenu annualisé de 30 milliards de dollars. Le PDG a lui-même qualifié cette dynamique de « trop difficile à gérer ».
Pour absorber ce choc, le laboratoire structure son agenda. The Anthropic Institute, lancé en mars, dévoile ses quatre priorités. Première priorité : la diffusion économique de l’IA. Cet axe étudie productivité, adoption et transformation du marché du travail.
Deuxième priorité : menaces et résilience. Elle couvre la cybersécurité, la santé, l’éducation, et l’équilibre offensif/défensif des armes biologiques. Troisième axe : les systèmes IA en conditions réelles. L’institut analyse l’impact sur la pensée critique, les valeurs et les cadres juridiques.
Quatrième axe : la R&D pilotée par IA. Cette branche scrute la perte de contrôle humain quand les modèles s’auto-améliorent.
Le paradoxe pour les directions stratégiques
L’entreprise qui prêche la sécurité connaît une croissance qui rend la sécurité plus difficile. Les CEO de banques, d’hôpitaux et d’universités utilisent Claude. Leur exposition au risque dépend donc d’une question simple. Anthropic peut-il maîtriser sa propre vélocité ?
Les revenus déclarés ne reflètent pas toujours la réalité, selon The Information. Les partenariats cloud avec AWS, Google ou Microsoft brouillent les chiffres. Les décideurs avisés exigeront davantage de transparence financière avant de signer.
La question qui dérange dans la stratégie IA en entreprise
Investirez-vous votre stratégie IA chez un fournisseur dont le PDG dit que sa croissance est ingérable ? La réponse n’est plus rhétorique. Elle conditionne la résilience opérationnelle de votre organisation.
L’IA et le piège silencieux de la délégation cognitive !
La compétence qui s’efface… petit à petit !
Savoir utiliser ChatGPT ne suffit plus. Savoir s’en passer reviendra peut-être au sommet. Jayney Howson, directrice apprentissage chez ServiceNow, formule un avertissement clair lors de Knowledge 2026. Les salariés délèguent à l’IA leur jugement, leur intuition et leur capacité à décider sous incertitude.
Elle parle d’un « somnambulisme » professionnel. Les commerciaux qu’elle observe ont perdu confiance en leur lecture du client. Ils s’appuient sur des briefs IA pour des décisions qui exigent du flair humain.
ServiceNow mise pourtant sur la formation. Plus de deux millions de personnes ont suivi des cours sur ServiceNow University depuis un an. La directrice y voit une condition de productivité. Elle y voit aussi une menace si les fondamentaux humains s’érodent.
Trois compétences à recombiner
Pour les organisations, l’équation s’écrit en trois termes. Un, la maîtrise du métier. Deux, la maîtrise des outils IA. Trois, le discernement de savoir quand ne pas s’appuyer sur l’IA. La troisième compétence est la plus difficile à enseigner.
Howson le résume : il faut accepter d’être un peu imparfait. Sans confiance en soi, pas de compétences IA solides. Cette inversion pédagogique mérite l’attention des DRH et des responsables L&D.
Vos collaborateurs deviennent-ils plus performants ou simplement plus dépendants ? La nuance est cruciale. Une organisation peut afficher des gains de productivité tout en perdant son intelligence collective. Le jour où l’outil tombe en panne, le coût caché apparaît brutalement.
Les acteurs IA partent à la conquête de la finance
Trois offensives simultanées
La finance est devenue le terrain de bataille préféré des laboratoires IA. Anthropic publie des templates d’agents prêts à l’emploi. Ils couvrent les pitch books, les analyses KYC, les valorisations et la clôture comptable. Claude s’intègre désormais à Excel, PowerPoint, Word, et bientôt Outlook via les Claude add-ins pour Microsoft 365.
OpenAI s’allie à PwC. Leur projet, baptisé Native Finance Function, embarque des agents dans la planification, la trésorerie, la fiscalité et les paiements. Le partenariat construit déjà un agent procurement au sein même d’OpenAI.
Perplexity étend son « Comet for Financial Services ». Les équipes finance peuvent désormais brancher des données Morningstar ou PitchBook sur 35 workflows dédiés.
Une démocratisation qui inquiète
Selon Terra Higginson, d’Info-Tech Research Group, ces outils pourraient démocratiser l’analyse financière. Jusqu’à présent, l’IA y était notoirement mauvaise. Avec les bonnes données, la situation change. Les investisseurs particuliers accèdent à des outils jadis réservés aux institutions.
Le risque demeure entier. Si tout le monde utilise les mêmes modèles sur les mêmes données, les marchés deviennent plus volatils. Plus crowded. Plus réactifs. L’avantage compétitif ne réside plus dans l’output, mais dans le jugement humain qui sait quand ne pas faire confiance au modèle.
La question qui dérange dans la stratégie IA en entreprise
Une finance pilotée par IA est-elle plus efficace ou simplement plus uniformisée ? La pression sur les CEO pousse à des déploiements rapides. Trop rapides, parfois. En finance régulée, la précipitation peut déclencher des effets domino. Mieux vaut avancer avec méthode que céder à la mode. Le tout dans un contexte géostratégique assez complexe, comme nous l’abordions lors de la conférence IA et géoéconomie.
Pour IBM, les entreprises sous-utilisent massivement l’IA
« Day zero » de la révolution
Arvind Krishna, PDG d’IBM, a ouvert la conférence Think par un constat sec. La plupart des entreprises font tourner l’IA à la marge. Les processus cœur, ceux qui génèrent le revenu, restent largement intacts.
Pour Krishna, nous sommes au « jour zéro » de la révolution. Le paradoxe est cruel. Tout le monde adopte l’IA. Personne ne la déploie au cœur. La peur de l’inconnu, du risque, des réactions internes paralyse les directions générales.
Le PDG d’IBM répond par une question déconcertante. Pourquoi votre entreprise serait-elle la seule à ne pas réussir ce que d’autres réussissent ? Sa thèse est limpide. Si une meilleure manière existe, ne pas l’embrasser conduit à un déclin lent.
Le conseil opérationnel : commencer petit
Krishna recommande deux ou trois projets, pas davantage. Choisis dans des domaines où l’échelle peut être massive. Confiés à des dirigeants opérationnels motivés. Pas par fascination technologique, mais par compréhension métier.
L’idée n’est pas neuve. Elle s’avère pourtant la plus difficile à appliquer. Pour les décideurs, le danger consiste à multiplier les pilotes sans jamais en industrialiser un seul. Le « pilot purgatory » coûte cher en ressources et en crédibilité interne.
Vos projets IA sont-ils alignés avec votre cœur de métier ou seulement avec l’air du temps ? Beaucoup de directions confondent activité et impact. Quelques projets bien choisis valent mieux que cent expériences sans suite.
Ethos lève 22,75 M$ pour cartographier l’expertise par la voix
La voix comme vecteur de signal
Ethos, startup londonienne fondée en 2024, vient de boucler une Série A. Le tour de 22,75 millions de dollars a été mené par a16z, avec la participation de General Catalyst, XTX Markets, Evantic Capital et Common Magic. TechCrunch
Le modèle est simple. Les réseaux d’experts traditionnels, comme GLG ou Third Bridge, matchent sur titres et fonctions. Ethos interroge les experts par la voix. L’IA extrait les sous-spécialités, les expériences pratiques, les nuances que le CV ignore.
Une entreprise peut ainsi rechercher des personnes ayant travaillé dans une startup financée par des investisseurs A-grade et travaillant sur l’automatisation financière. Une requête impossible à formuler sur LinkedIn. Possible sur Ethos.
Pourquoi observer ce signal faible
James Lo, cofondateur, vient de McKinsey et SoftBank. Daniel Mankowitz vient de DeepMind, où il a contribué à Gemini et AlphaDev. Le tandem allie discipline commerciale et profondeur technique. Les laboratoires IA, hedge funds et cabinets de conseil utilisent déjà la plateforme.
Environ 35 000 nouveaux experts rejoignent le réseau chaque semaine. La startup ne compte pourtant que huit collaborateurs. Le revenu annualisé serait à huit chiffres. Anish Acharya, d’a16z, le résume : la voix est la forme originelle de la communication humaine.
Comment votre organisation valorise-t-elle la connaissance tacite de vos collaborateurs ? Si Ethos réussit, vos meilleurs experts seront identifiés et sollicités, par d’autres. La cartographie des compétences devient un enjeu RH stratégique.
GPT-5.5 Instant réduit les hallucinations sur les sujets sensibles
Les chiffres clés
OpenAI a déployé GPT-5.5 Instant le 5 mai 2026. Le modèle remplace GPT-5.3 Instant comme moteur par défaut de ChatGPT. La promesse : 52,5% d’hallucinations en moins sur les requêtes à fort enjeu, en médecine, droit et finance.
Sur les conversations préalablement signalées par les utilisateurs pour erreurs factuelles, les inexactitudes baissent de 37,3%. GPT-5.5 Instant peut puiser dans les conversations passées, les fichiers uploadés et les comptes Gmail connectés. Une nouvelle fonction, « memory sources », montre quelles sources ont nourri une réponse. Les utilisateurs peuvent corriger ou supprimer ces données. GPT-5.3 Instant reste accessible pendant trois mois pour les abonnés payants, avant retraite définitive.
L’enjeu pour les comités de conformité
Pour les entreprises régulées, ce déploiement adresse un frein historique. La traçabilité des décisions assistées par IA était demandée depuis longtemps par les services compliance. Memory sources rend la chaîne d’inférence partiellement auditable.
Cela ne résout pas tout. Les sources affichées ne sont pas toujours exhaustives. Mais le pas est notable. Pour les directions juridiques, il faudra auditer cette nouvelle traçabilité. Pour les RSSI, vérifier la conformité RGPD de la mémoire enrichie devient une priorité.
Faut-il interdire ou intégrer la mémoire IA dans vos workflows internes ? L’interdiction protège la confidentialité. L’intégration améliore la productivité. Le bon arbitrage dépend du métier, du périmètre et du niveau de sensibilité des données.
Anthropic et OpenAI lancent leurs joint-ventures pour conquérir l’entreprise
Deux annonces, une stratégie identique
Le 4 mai 2026, Anthropic a annoncé une joint-venture avec Blackstone, Hellman & Friedman et Goldman Sachs. À quelques heures d’intervalle, OpenAI a riposté. Coïncidence ? Peu probable.
La nouvelle entité d’Anthropic est valorisée 1,5 milliard de dollars, avec un engagement de 300 millions chacun de la part d’Anthropic, Blackstone et Hellman & Friedman. Apollo Global Management, General Atlantic, GIC, Leonard Green et Sequoia Capital complètent le tour de table.
OpenAI répond avec « The Development Company ». Un véhicule levant 4 milliards sur une valorisation de 10 milliards. Soutenu par 19 investisseurs, dont TPG, Brookfield, Advent et Bain Capital. Aucun investisseur commun avec la JV d’Anthropic.
Le modèle Palantir, version IA
Les deux structures adoptent l’approche du « forward-deployed engineer », popularisée par Palantir. Les ingénieurs s’installent chez le client. Ils redessinent les workflows. Ils adaptent les modèles aux processus existants. Pour les ETI, c’est un raccourci stratégique.
Cette JV a vocation à déployer Claude directement à l’intérieur des entreprises, ciblant en particulier les sociétés du portefeuille des fonds partenaires. Le portefeuille de centaines de participations devient ainsi le pipeline commercial. Une mécanique redoutable. Elle court-circuite les cabinets de conseil traditionnels.
La question qui dérange
Vos consultants traditionnels deviennent-ils obsolètes face à ces nouvelles JV ? Les Big Four et les cabinets de stratégie observent ce mouvement avec inquiétude. Les ingénieurs IA déployés sur site sont à la fois plus rapides, plus techniques et plus profondément intégrés. Pour les directions générales, le choix entre intégrateur et JV-éditeur devient stratégique.
Qu’est-ce qu’une stratégie IA en entreprise efficace en 2026 ?
Une stratégie IA en entreprise efficace combine trois ingrédients. D’abord, le ciblage de deux ou trois processus cœur, pas dix pilotes périphériques. Ensuite, un sponsor opérationnel motivé par l’enjeu métier. Enfin, une cartographie claire des dépendances technologiques. Sans cette discipline, vous restez en pilot purgatory.
Comment éviter le piège du « pilot purgatory » ?
Le pilot purgatory survient quand les expérimentations s’accumulent sans jamais passer à l’industrialisation. Pour s’en prémunir, fixez des critères de succès chiffrés dès le départ. Choisissez des projets à fort potentiel d’échelle. Rattachez-les à un dirigeant qui assume la responsabilité du déploiement. Sans ROI mesurable à six mois, arrêtez le projet.
Quels risques surveiller dans une stratégie IA en entreprise ?
Trois familles de risques dominent en 2026. Les risques de dépendance, quand votre fournisseur dépend lui-même d’un concurrent, le cas Anthropic-SpaceX en est l’archétype. Les risques cognitifs, liés à la délégation excessive du jugement humain. Les risques réglementaires, particulièrement en finance et en santé.
Pourquoi les joint-ventures IA changent-elles la donne pour les ETI ?
Les joint-ventures IA d’Anthropic et d’OpenAI proposent un déploiement express avec ingénieurs sur site. Pour une ETI, c’est l’occasion d’accéder à des compétences rares sans les recruter. C’est aussi un risque de dépendance accrue. La négociation contractuelle devient un enjeu central.
Comment intégrer les agents IA en finance sans précipitation ?
L’intégration d’agents IA en finance exige trois garde-fous. Garder un humain dans la boucle sur toute décision matérielle. Auditer les sources de données utilisées. Vérifier la conformité réglementaire à chaque étape. La promesse de productivité est réelle. La précipitation reste le principal risque.
La cartographie des dépendances IA est-elle indispensable ?
Oui. La cartographie des dépendances IA n’est plus un exercice théorique. Elle identifie qui possède le compute, qui possède les modèles, qui possède les données. Cette visibilité de second rang devient un prérequis pour toute analyse de risque sérieuse. Sans elle, vous pilotez à l’aveugle.