Actus IA S.45 : Nvidia, Google, Claude, Stability, Perplexity, Amazon, etc.

AI weekly S.45 : 8 actus IA pour ne rien manquer de la semaine

1. NVIDIA × Deutsche Telekom : un « Industrial AI Cloud » à Munich (≈ 1 Md€)

Un partenariat à 1 Md€ prévoit un centre de calcul IA en Allemagne, annoncé pour 2026, visant +50 % de capacité nationale. Il combinerait >1 000 systèmes DGX B200 et serveurs RTX Pro avec jusqu’à 10 000 GPU Blackwell, en conformité stricte avec la souveraineté des données. SAP opère la couche applicative ; DT gère l’infra ; premiers cas d’usage : jumeaux numériques, simulation physique, inférence locale pour entreprises.


Pourquoi c’est stratégique. L’Europe compense partiellement son retard face aux hyperscalers US et aux plans nationaux dispersés. Pour les institutions et industriels : fenêtre pour négocier des capacités garanties « in-country », SLAs de latence, et clauses de résidence/segmentation des données sensibles.

2. Google vise… l’orbite basse : « Project Suncatcher »

Google explore des constellations solaires équipées de TPUs interconnectés par liaisons optiques, pour exécuter du calcul ML en orbite et réduire la pression énergétique terrestre. Deux prototypes seraient lancés en 2027 ; gain énergétique annoncé : jusqu’à ×8 pour des panneaux en orbite vs au sol. C’est un « moonshot » de recherche, pas une offre commerciale proche.


Pourquoi c’est stratégique. Le coût/CO₂ du compute explose ; toute feuille de route IA sérieuse doit intégrer l’accès à l’énergie (contrats PPA, waste-heat, optimisation charge). Le spatial restera expérimental à court terme, mais signale l’émergence d’un arbitrage « énergie d’abord ».

3. Anthropic : des débuts de prémices d’« introspection » de modèles

Une étude décrit des « concept injections » dans Claude 4/4.1 (ajout de signatures internes, ex. motif “ALL CAPS”) et la capacité du modèle, ~20 % du temps, à détecter/décrire ces états avant même qu’on l’y pousse par prompt. Les auteurs parlent de premiers indices d’auto-détection d’états internes, loin d’une « conscience », mais utiles pour l’audit de sécurité.

Pourquoi c’est stratégique. Pour les responsables risques/compliance, c’est une piste d’outillage : tests d’intégrité des activations, détection d’insertions malveillantes, évaluation de dérives. Pour la pédagogie, c’est un cas d’école sur ce que « comprend » réellement un LLM.

4. Stability AI remporte l’essentiel face à Getty (UK)

La High Court britannique déboute l’essentiel des griefs copyright de Getty (les faits matériels de training hors UK pèsent), mais retient étroitement une atteinte marque (apparition de filigranes). Signal juridique : le cœur « copyright » ne passe pas, ici, alors que la marque demeure sensible.

Pourquoi c’est stratégique. Pour les acheteurs/éditeurs de modèles : renforce l’intérêt de clauses d’indemnisation, de traçabilité des données d’entraînement et de filtres anti-marques. Pour les détenteurs d’IP : privilégier les leviers marque/contrat et la négociation (licences sélectives) en parallèle du content-safety technique.

5. Amazon vs Perplexity : l’agent d’achat dans le viseur

Amazon a engagé une action contre Perplexity autour de l’agent du navigateur Comet, l’accusant d’accès non conforme et d’expérience dégradée ; Perplexity rétorque à la censure anti-innovation et affirme que les identifiants restent locaux côté utilisateur. En toile de fond : Amazon développe ses propres agents (Rufus, etc.).


Pourquoi c’est stratégique. Les « agents » autonomes entrent dans la zone rouge contractuelle (ToS, anti-bot, anti-scraping). Pour les entreprises : prévoir des politiques internes sur agents (périmètres, logs, preuve de consentement), des proxys d’accès, et des tests UX/risques avant déploiement externe.

6. Apple négocierait ~1 Md$/an pour intégrer Gemini à Siri

Selon Bloomberg, Apple serait proche d’un accord pour louer une version custom de Gemini (~1,2 T de paramètres) afin de relancer Siri au printemps 2026, en attendant ses propres modèles. Mouvement pragmatique : réduire l’écart fonctionnel tout en gardant une trajectoire d’indépendance.


Pourquoi c’est stratégique. Pour les DSI : normalisation d’architectures « multi-modèles » (sourcing externe + développement interne). À anticiper : coûts OPEX, gouvernance de la qualité des réponses, et roadmaps de migration si l’externalité n’est qu’un « pont ».

7. « Guerre cognitive » : du concept à l’entraînement opérationnel

Le terme, popularisé depuis 2017, recouvre l’usage coordonné de technologies (numériques, neuro) visant attention, mémoire, décision. Le projet GECKO illustre la translation vers la préparation en crises fictives ; objectif : sensibiliser décideurs civils/militaires aux manipulations à bas bruit et aux réponses procédurales (sources : Polytechnique Insights).


Pourquoi c’est stratégique. Pour les directions d’établissements et RH : former à l’hygiène attentionnelle, protocoliser la vérification d’informations, intégrer la « résilience cognitive » dans les plans de continuité et chartes d’usage des outils IA/génératifs.

8. Google retire Gemma d’AI Studio après accusations de diffamation

Après une lettre d’une sénatrice alléguant des réponses diffamatoires (faits inventés + liens bidons), Google a retiré Gemma d’AI Studio, en rappelant que l’outil cible des développeurs et non la recherche factuelle grand public. Le modèle reste accessible via API.


Pourquoi c’est stratégique. L’exposition juridique des LLM (diffamation, biais) impose : garde-fous d’usage, filtres thématiques, red teaming, logs d’audit et « safe-modes » pour les cas sensibles (personnes, santé, politique). Côté communication, réviser les chartes éditoriales IA et prévoir un plan de retrait rapide.

Ce que cela change pour une stratégie IA

  1. Souveraineté pragmatique : combiner capacité locale (ex. Munich) et services globaux ; contractualiser la résidence des données et le peering réseau critique.
  2. Énergie = contrainte n°1 : intégrer l’empreinte compute au budget ; tester horaires « off-peak », optimisation des tokens, pruning, distillation. Les paris orbitaux sont à surveiller, pas à dépendre.
  3. Agents sous contrôle : politiques d’accès sites tiers, sandbox de paiement, preuve de consentement, et garde-fous UX.
  4. IP & contenu : clauses d’indemnisation, filtres anti-marques, gouvernance datasets, et voies amiables avec ayants droit.
  5. Sécurité des modèles : tester l’« introspection » comme levier d’audit et d’explicabilité opérationnelle.
  6. Multi-fournisseurs : assumer des architectures hybrides (ex. Apple/Gemini) avec des plans de sortie et des métriques qualité/coût/risque.
  7. Hygiène cognitive : former, simuler, protocoliser. La vulnérabilité humaine est une surface d’attaque.
  8. Conformité éditoriale IA : classer les cas sensibles, renforcer modération et droit de la personnalité, prévoir des mécanismes de retrait immédiat.

Alain Goudey

Imaginer l'Ecole du futur à NEOMA, créer l'identité sonore des marques avec Atoomedia & Mediavea, conseiller sur la transformation numérique avec Sociacom | Expert en éducation, technologies disruptives, IA & design sonore.

Voir tous les articles de Alain Goudey →

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *