L’intelligence artificielle se structure, se monétise et se régule. L’Europe tente de ne manquer le train de l’intelligence artificielle… mais ça continue de pousser du côté des Etats-Unis, et de manière très forte avec de nombreuses nouvelles annonces cette semaine. Voici les six actualités qui m’ont marqué cette semaine :
🇪🇺 1. L’Europe muscle son jeu dans l’IA
1,1 milliard d’euros pour accélérer l’adoption de l’intelligence artificielle dans l’industrie et la recherche. Bruxelles a dévoilé cette semaine deux piliers de sa nouvelle stratégie : “Apply AI” et “AI in Science”. Le premier vise à rapprocher la recherche du marché, à former une main-d’œuvre “AI-ready” et à fédérer un “Apply AI Alliance” réunissant acteurs publics, privés et académiques. Le second ambitionne de faire émerger une recherche scientifique dopée à l’IA, en soutenant l’accès à des “AI gigafactories” pour répondre aux besoins de calcul européens.
L’objectif est clair : combler le retard sur les États-Unis et la Chine, tout en conservant la rigueur éthique du continent. “Mettre l’IA au cœur, c’est aussi mettre la sécurité au centre”, a martelé Ursula von der Leyen.
Pourquoi suivre cela ?
Parce que cette initiative annonce un tournant pour la recherche publique et l’enseignement supérieur. Les universités pourraient bénéficier d’un accès facilité à des infrastructures de calcul de haut niveau, à des programmes de financement ciblés et à des alliances inédites entre laboratoires et entreprises.
Mais l’équation reste complexe : comment rivaliser avec les milliards d’investissements américains sans sacrifier les exigences éthiques européennes ? L’Europe avance, mais sur une corde raide.
🤝 2. IBM s’allie à Anthropic : Claude entre dans l’entreprise
IBM + Anthropic = IA d’entreprise à grande échelle.
Le géant américain s’associe à la startup californienne pour intégrer les modèles Claude dans ses environnements logiciels, en commençant par son Integrated Development Environment (IDE). Derrière cette alliance, une double stratégie : diffuser les modèles d’Anthropic dans l’écosystème IBM et co-créer un guide des meilleures pratiques pour aider les entreprises à déployer des agents IA de confiance.
Cette collaboration marque une étape dans la bataille des modèles d’entreprise, où Anthropic tente de se positionner face à OpenAI et Microsoft. D’ailleurs, le partenariat avec IBM intervient 24 heures après un autre accord massif : celui signé avec Deloitte, qui prévoit le déploiement de Claude pour près d’un demi-million d’employés.
Pourquoi suivre cela ?
Parce que les préférences du marché B2B changent. Une étude de Menlo Ventures en juillet 2025 indiquait déjà une baisse d’usage des modèles OpenAI dans les entreprises, au profit de Claude. Pour les établissements d’enseignement supérieur, cette dynamique annonce un futur proche où le choix du modèle IA devient un enjeu de gouvernance numérique : quelle IA pour former, coder, ou évaluer ? IBM-Anthropic pourrait devenir une option de référence, notamment dans les écosystèmes universitaires déjà partenaires d’IBM Research.
💰 3. Reflection AI : la riposte américaine « open »
Une levée de fonds record : 2 milliards de dollars pour une IA ouverte.
Née à peine un an plus tôt, la startup Reflection AI, fondée par deux anciens chercheurs de DeepMind, veut devenir le laboratoire “open frontier” américain. Avec une valorisation de 8 milliards de dollars et le soutien d’investisseurs comme Nvidia, Sequoia ou Eric Schmidt, la jeune pousse promet de publier les poids de ses modèles — une semi-ouverture inspirée de Mistral et Meta — tout en conservant ses pipelines propriétaires.
L’idée : créer un écosystème de modèles souverains que les gouvernements et grandes entreprises peuvent s’approprier, adapter et héberger eux-mêmes. Une approche “open-controlée” face à la logique fermée d’OpenAI ou Anthropic.
Pourquoi suivre cela ?
Parce qu’il s’agit d’un contre-modèle stratégique. Pour les institutions publiques, la promesse d’une IA accessible, auditable et adaptable, sans dépendance totale à un fournisseur, ouvre des perspectives concrètes : souveraineté numérique, mutualisation interuniversitaire, formation sur des modèles ouverts. Reflection AI pourrait devenir un catalyseur d’écosystèmes académiques “open-AI” à la manière de Linux dans les années 2000.
🧭 4. Washington autorise l’export de puces NVIDIA vers les Émirats
La diplomatie du silicium bat son plein.
Les États-Unis ont approuvé cette semaine les premières licences d’exportation de puces NVIDIA vers des centres de données américains installés aux Émirats arabes unis. Cette décision, la première depuis l’entrée en fonction du président Trump, s’inscrit dans un accord bilatéral de coopération en IA et vise à endiguer l’influence chinoise au Moyen-Orient.
En échange, les Émirats s’engagent à investir 1,4 billion de dollars dans des projets américains sur dix ans. Le message est limpide : les semi-conducteurs ne sont plus un simple produit technologique, mais un outil géopolitique.
Pourquoi suivre cela ?
Parce que la guerre des puces structure déjà la recherche mondiale. Les universités, laboratoires et start-ups dépendent de plus en plus de la disponibilité de GPU pour l’entraînement de modèles. Toute reconfiguration géopolitique de cette chaîne d’approvisionnement impacte directement la capacité d’innovation scientifique. Dans un monde où le calcul devient pouvoir, la recherche publique doit anticiper sa dépendance matérielle.
⚠️ 5. Deloitte épinglée pour usage défaillant de l’IA
Un audit à 440 000 dollars, truffé de fausses citations.
Le cabinet Deloitte a reconnu que son rapport commandé par le gouvernement australien comportait des références inventées et des citations fictives, générées par un outil d’IA (Azure OpenAI). Après enquête, l’entreprise a accepté de rembourser partiellement le contrat, tout en révisant le document et en reconnaissant un “manque de supervision humaine”.
Pourquoi suivre cela ?
Parce que ce cas illustre la fragilité de la confiance dans l’usage institutionnel de l’IA. Quand les outils génératifs sont utilisés sans transparence, la crédibilité scientifique et juridique s’effondre. Pour les établissements d’enseignement supérieur, la leçon est directe : il faut instaurer des protocoles de validation, des mentions d’usage IA et une traçabilité stricte. L’intégrité académique ne peut se déléguer à un algorithme.
⚡ 6. AMD décroche un méga-contrat avec OpenAI
Un partenariat historique de plusieurs dizaines de milliards de dollars.
AMD fournira à OpenAI 6 gigawatts de puissance de calcul sur plusieurs années — soit l’équivalent énergétique de 4,5 millions de foyers. Le deal comprend aussi une participation au capital : OpenAI pourra acquérir jusqu’à 10 % d’AMD selon des objectifs de performance.
Ce contrat, l’un des plus vastes jamais signés dans l’IA, marque une nouvelle phase d’intégration verticale : OpenAI ne veut plus seulement des modèles, mais un contrôle sur sa chaîne d’approvisionnement matérielle.
Pourquoi suivre cela ?
Parce que cela redessine le marché du calcul scientifique. Les infrastructures d’IA deviennent des actifs stratégiques comparables à des centrales électriques. Pour les universités, cela pose une question cruciale : faut-il mutualiser les ressources, investir localement ou dépendre du cloud ? L’enjeu de souveraineté académique en IA se joue désormais aussi… dans les circuits imprimés.