AI weekly 49 : les actualités IA de la semaine

Weekly IA 49 : Des rachats, de l’investissement, de la géopolitique et de gros contrats

Sur le papier, les annonces de la semaine 49 semblent dispersées : un partenariat à 200 M$, un plan européen de “gigafactories”, une enquête antitrust sur WhatsApp, un épisode de lobbying à Washington, des agents de code “longue durée”, une pépite voix à Paris, une banque globale qui internalise un modèle français, et OpenAI qui prend une participation dans une structure de private equity.

Anthropic et Snowflake : 200 M$ pour mettre l’IA “au plus près” des données

Anthropic annonce une extension “majeure” de son partenariat avec Snowflake : un accord pluriannuel de 200 M$, assorti d’une initiative go-to-market commune centrée sur le déploiement d’agents IA dans de grandes entreprises. L’enjeu est clair : rendre les modèles Claude disponibles directement là où vivent les données, à l’échelle des 12 600 clients de Snowflake.

Concrètement, Snowflake positionne cette intégration comme un accélérateur “pilote vers production” dans des secteurs régulés. Anthropic met en avant plusieurs briques produit :

  • Claude Sonnet 4.5 comme moteur de Snowflake Intelligence (agent “enterprise intelligence”).
  • Claude Opus 4.5 accessible via les fonctions Cortex pour interroger texte, images, audio et données tabulaires.
  • La capacité à construire des agents de données via Cortex Agents, avec gouvernance et observabilité via Horizon Catalog.

Le détail qui intéressera les décideurs data est la promesse de performance opérationnelle : Anthropic indique que, sur des tâches complexes de text-to-SQL, Claude atteint “plus de 90%” de précision selon des benchmarks internes Snowflake. Cela vise un usage très concret : permettre à des utilisateurs métiers de poser des questions en langage naturel, l’agent allant chercher la bonne donnée dans l’environnement Snowflake pour produire une réponse traçable.

En toile de fond, Anthropic continue d’empiler des partenariats “entreprise” : Deloitte a annoncé déployer Claude auprès de ses collaborateurs, et IBM a officialisé l’intégration de Claude dans watsonx.
Pour un COMEX, le signal est limpide : la bataille commerciale se gagne de plus en plus par la distribution (plateforme data, cloud, intégrateurs) et l’intégration gouvernée, pas uniquement par la capacité brute du modèle.

L’Union européenne : 20 Md€ et des “gigafactories” pour réduire l’écart de calcul

Bruxelles met aussi l’accent sur les rails, mais côté infrastructure. La Commission a publié un Memorandum of Understanding avec la BEI et le FEI visant à accélérer le financement et le développement de gigafactories IA : la BEI doit notamment accompagner les consortiums issus d’un appel “informel” vers des projets finançables, en vue d’un appel formel prévu début 2026.

Le cadre est celui d’InvestAI : une enveloppe annoncée à 20 Md€ pour soutenir jusqu’à cinq gigafactories, décrites comme des installations capables d’aligner plus de 100 000 processeurs IA avancés (ordre de grandeur) afin d’entraîner des modèles de nouvelle génération.

Pourquoi c’est stratégique à suivre, côté décideurs européens :

  • La Commission connecte explicitement ces gigafactories au maillage EuroHPC : au moins 15 “AI Factories” et antennes sont attendues opérationnelles sur 2025-2026 pour soutenir startups, PME, recherche et industrie.
  • L’objectif n’est pas seulement technologique, il est macroéconomique : la capacité à expérimenter et industrialiser l’IA dépend de plus en plus de l’accès au calcul, et le marché mondial de la donnée et du cloud reste massivement concentré hors UE.

Sur ce dernier point, les ordres de grandeur sont éclairants : des données Cloudscene (via Statista) popularisées par Visual Capitalist montrent que les États-Unis concentrent environ 45,6% des data centers, contre 4,4% pour l’Allemagne, ce qui donne un rapport proche de x10 entre le premier et le suivant.
Autrement dit, même une stratégie “gigafactory” devra composer avec trois contraintes : énergie, capitaux, et dépendance aux chaînes d’approvisionnement hardware.

Antitrust : la Commission ouvre un front sur WhatsApp comme “porte d’entrée” de l’IA

C’est l’autre versant des rails : les canaux de distribution. La Commission européenne a lancé une enquête antitrust sur Meta après un changement des règles WhatsApp Business. Selon les informations rapportées, une mise à jour annoncée mi-octobre restreint l’accès de la Business API à des chatbots IA généralistes tiers, avec application à partir de mi-janvier.

L’enjeu est classique mais appliqué à l’IA : Meta pourrait être soupçonné d’auto-préférence, en limitant l’accès des concurrents tout en gardant Meta AI accessible sur la plateforme. En cas d’infraction, les sanctions peuvent aller jusqu’à 10% du chiffre d’affaires mondial et s’accompagner de remèdes comportementaux.
WhatsApp, de son côté, explique que ces chatbots peuvent “mettre sous tension” des systèmes non conçus pour cela et souligne que le marché de l’IA reste accessible via d’autres canaux (stores, moteurs).

Pourquoi c’est un dossier à suivre pour des décideurs : ce n’est pas “juste” une affaire Meta. C’est un signal que l’IA devient un sujet de concurrence par la distribution. Toute stratégie qui dépend d’un “point d’entrée” dominant (messagerie, OS, app store, suite collaborative, marketplace cloud) s’expose à un double risque : restriction unilatérale d’accès et scrutin réglementaire.

Puces et géopolitique : Nvidia marque un point, mais la bataille n’est pas finie

Autre rail, autre tension : la disponibilité des GPU. Aux États-Unis, le Congrès a retiré du grand texte de défense annuel une proposition (GAIN AI Act) qui aurait exigé des fabricants de puces IA de prioriser le marché américain avant certaines ventes à l’étranger. D’après des informations de presse, Nvidia et AMD ont fortement plaidé contre cette mesure, dans un contexte où les contrôles export existants restent en place.

Ce qui rend le sujet durablement instable, c’est que le débat se poursuit par d’autres voies : des sénateurs ont par exemple proposé un texte visant à empêcher l’exécutif d’assouplir certaines restrictions de vente de puces vers la Chine, illustrant un tiraillement permanent entre sécurité nationale et intérêts commerciaux.

Pour les entreprises européennes, la lecture est pragmatique : la volatilité des règles US sur l’export se répercute directement sur les délais d’approvisionnement, les coûts cloud, et les capacités de formation fine-tuning. Même sans nouvelle contrainte immédiate, la trajectoire reste politique.

AWS et ses agents “longue durée” : du copilote à l’exécutant encadré

Côté usage, AWS a présenté trois agents IA destinés à transformer le cycle de vie logiciel : un agent de code autonome (Kiro), un agent de sécurité et un agent DevOps. Le point saillant est la promesse d’autonomie prolongée : Kiro serait capable de prendre un ticket complexe et de produire du code “production-ready” en conservant un contexte entre sessions, avec une approche de “spec-driven development”.

L’intérêt pour les décideurs n’est pas seulement l’efficacité individuelle. C’est le déplacement des coûts de coordination : quand l’agent devient capable de travailler sur des changements transverses (ex : modifications à répercuter sur de multiples applications), la question centrale devient la gouvernance : qui valide, qui audite, et comment tracer. Les agents “sécurité” et “DevOps” s’inscrivent justement dans cette logique d’industrialisation.

Gradium : 70 M$ à Paris pour faire de la voix une couche d’infrastructure

La semaine 49 a aussi été marquée par une annonce très européenne : Gradium, startup française issue de l’écosystème Kyutai, sort de l’ombre avec un seed de 70 M$, mené par FirstMark et Eurazeo, avec la participation d’investisseurs de premier plan (dont Xavier Niel, DST Global Partners, Eric Schmidt, entre autres).

Le pari est ciblé : des modèles “audio language” orientés très faible latence, pour des interactions vocales quasi instantanées, et une approche nativement multilingue (anglais, français, allemand, espagnol, portugais annoncés).

Pourquoi c’est à suivre : la voix est en train de passer du gadget (assistant vocal) à une interface opérationnelle pour des agents (support client, prise de rendez-vous, ventes, opérations). Dans ce jeu, la latence et la fiabilité ne sont pas des détails : elles conditionnent l’adoption dans des environnements “temps réel”.

HSBC choisit Mistral : souveraineté, self-hosting et conformité comme critères d’achat

Autre signal européen fort : HSBC et Mistral AI annoncent un partenariat stratégique pluriannuel donnant accès aux modèles commerciaux de Mistral, y compris les développements futurs, avec une particularité déterminante : des modèles self-hosted opérés sur les systèmes internes de la banque.

HSBC liste des cas d’usage internes très concrets : communications client personnalisées, campagnes marketing hyper personnalisées, optimisation achats (risques et économies), analyse financière de dossiers documentaires lourds, services de raisonnement et traduction multilingue, et accélération des cycles d’innovation.
La banque mentionne aussi des chantiers orientés client comme le crédit, l’onboarding et les contrôles fraude et anti-blanchiment.

Pour les décideurs, l’enseignement est structurant : dans les secteurs régulés, la discussion ne porte plus seulement sur “quel modèle est le meilleur”, mais sur où il tourne, qui contrôle les données, et comment l’outil s’insère dans la gouvernance.

OpenAI et Thrive Holdings : quand le laboratoire veut devenir “partenaire industriel”

Enfin, OpenAI annonce prendre une participation dans Thrive Holdings, avec un objectif explicite : accélérer l’adoption de l’IA en s’attaquant à des fonctions cœur, en commençant par la comptabilité et les services IT, décrits comme des processus à fort volume, très procéduraux et riches en workflows. OpenAI prévoit d’embarquer des équipes recherche, produit et ingénierie dans les entreprises de Thrive pour améliorer vitesse, précision et coûts, et bâtir un modèle reproductible.

Le mouvement est intéressant parce qu’il change la posture d’OpenAI : moins “fournisseur de technologie”, plus co-constructeur de transformations opérationnelles, avec un feedback direct entre déploiement et amélioration de produit.
Pour des dirigeants de secteurs de services traditionnels, c’est un scénario à observer de près : la concurrence ne viendra pas uniquement d’outils IA, mais potentiellement de plateformes IA qui prennent pied dans les opérateurs eux-mêmes.

Alain Goudey

Imaginer l'Ecole du futur à NEOMA, créer l'identité sonore des marques avec Atoomedia & Mediavea, conseiller sur la transformation numérique avec Sociacom | Expert en éducation, technologies disruptives, IA & design sonore.

Voir tous les articles de Alain Goudey →

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *