Les annonces de cette semaine ont un parfum commun : le passage de l’IA conversationnelle à l’IA opératoire.
Traduction : moins de “réponses”, plus de tâches, plus d’accès, plus de risque, donc plus de gouvernance. Et, détail amusant, tout cela arrive en même temps dans les domaines où l’erreur n’est pas un “bug”, mais un incident : santé, finance, commerce, éducation.
Santé : Anthropic et OpenAI se disputent le dossier médical… sous contraintes
Anthropic lance “Claude for Healthcare” : HIPAA-ready, et “privacy-first”
Anthropic annonce Claude for Healthcare, une offre pensée pour des usages cliniques et administratifs, avec des produits annoncés comme “HIPAA‑ready”. Le positionnement est explicite : l’IA en santé, oui, mais avec une architecture et des intégrations conçues pour limiter l’exposition des données.
Côté usages, la promesse est très concrète (et très “back‑office”, ce qui n’est pas un hasard) : aider à traiter des flux comme la prior authorization, les demandes et recours d’assurance, ou le tri de messages patients, bref, là où l’hôpital perd du temps et où la qualité dépend d’abord de processus répétables.
Le point politiquement (et juridiquement) saillant : Anthropic insiste sur des intégrations et un partage “opt‑in”, avec contrôle par l’utilisateur / l’organisation, et une ligne rouge : les données de santé ne servent pas à entraîner les modèles.
OpenAI avait démarré avec ChatGPT Health
Quelques jours plus tôt, OpenAI a dévoilé ChatGPT Health, présenté comme une expérience centrée sur des insights personnalisés (bien‑être, résultats, habitudes), pouvant s’appuyer sur des données et documents de santé fournis par l’utilisateur.
Le chiffre qui explique l’empressement du secteur : OpenAI affirme que les utilisateurs posent plus de 230 millions de questions de santé par semaine à ChatGPT. À cette échelle, “ne pas y aller” devient presque un choix idéologique.
Et la presse généraliste rappelle l’ordre de grandeur côté quotidien : plus de 40 millions d’utilisateurs utiliseraient ChatGPT chaque jour pour des questions liées à la santé.
Ce que j’identifie c’est que :
- L’IA s’installe d’abord là où elle est mesurable et valorisable dans la tête des consommateurs : délais, coûts, volumes, conformité. Ce n’est pas romantique, mais c’est pilotable.
- Le “privacy-by-design” devient un argument commercial. Il était temps : la santé est un domaine où “nous améliorons le produit grâce à vos données” sonne moins comme une promesse que comme un aveu.
- Risque structurel : même très bien cadrée, l’IA peut se tromper avec aplomb. L’exemple récent des résumés IA dans la recherche en santé, critiqués pour inexactitudes et risques de désinformation, rappelle qu’un mauvais résumé peut faire de vrais dégâts… surtout dans le domaine de la santé !
Biotech : la santé n’est pas qu’un marché logiciel
Deux annonces donnent la profondeur “industrie lourde” de cette semaine : on ne parle plus seulement d’assistants, mais de découverte (drug discovery, gene editing).
Nvidia + Eli Lilly : 1 milliard de dollars pour un laboratoire commun
Nvidia et Eli Lilly annoncent 1 Md$ sur 5 ans pour un laboratoire de recherche conjoint (Bay Area), visant à accélérer découverte et développement de médicaments via l’IA. L’annonce s’inscrit dans la dynamique JPMorgan Healthcare Conference.
Le détail à noter : Reuters évoque l’usage des puces “Vera Rubin” côté Nvidia dans ce contexte — signal clair que le hardware et la R&D pharma se branchent de plus en plus directement.
Illumina : Billion Cell Atlas, un dataset pour entraîner l’IA de découverte
Illumina lance un dataset nommé Billion Cell Atlas, visant à cartographier la réponse d’un milliard de cellules à des perturbations génétiques (CRISPR) sur plus de 200 lignées cellulaires liées à des maladies difficiles. Objectif : nourrir des modèles IA capables d’identifier cibles et mécanismes.
“EDEN” : des modèles (avec Nvidia et Microsoft) pour l’insertion génique programmable
Dans le même mouvement “international team”, un papier technique autour de la famille de modèles EDEN (Basecamp Research, avec co‑auteurs Nvidia et Microsoft Research notamment) décrit :
- un modèle 28B paramètres,
- entraîné sur 9,7 trillions de tokens nucléotidiques,
- issus d’une base contenant >10 milliards de gènes provenant de >1 million d’espèces.
Et une vision, la capacité d’AI‑programmable Gene Insertion : concevoir des recombinases capables d’insérer de larges fragments d’ADN à des sites ciblés, avec validations expérimentales sur des loci associés à des maladies.
C’est intéressant à suivre parce que la “révolution IA en santé” ne se jouera pas seulement sur l’interface patient. Elle se jouera aussi sur : la qualité des données, la capacité à valider, l’accès au calcul, et la propriété des pipelines (datasets, modèles, outils).
Travail : Anthropic veut être le standard en entreprise
Claude Cowork : un agent qui agit sur votre machine (pas juste dans un onglet)
Anthropic lance Claude Cowork en “research preview”, réservé aux abonnés Claude Max (100 à 200 $/mois). L’idée : un assistant agentique qui exécute des tâches de manière autonome quand on lui donne accès à des dossiers, et qui tourne via Claude Desktop, localement sur l’appareil, sans passer par un terminal. Pour l’instant, sur macOS uniquement.
Les démos parlent aux équipes opérationnelles : ranger un bureau numérique, résumer des notes, transformer des captures (tickets, reçus) en rapports et feuilles de calcul.
Il faut souligner au passage la vélocité de la sortie : un produit prototypé puis développé très rapidement, révélateur d’une stratégie “ship fast” sur l’agentique.
Pendant ce temps, Slack aussi pousse l’agentique… Slack annonce une montée en puissance vers des capacités plus “agent” (recherche, actions, assistance), confirmant que l’agentique devient la nouvelle bataille de la productivité.
Les décideurs doivent intégrer ces démarches autour d’agents IA car l’agent change la question : on ne discute plus “qualité de réponse”, mais délégation. Et déléguer, c’est ouvrir des dossiers, des systèmes, des workflows. Autrement dit : la valeur monte (automatisation), et le risque aussi (accès, traçabilité, erreur d’exécution).
Commerce : Google lance un protocole pour des achats “agentiques” de bout en bout
Google annonce Universal Commerce Protocol (UCP), présenté comme un standard ouvert permettant à des agents IA de gérer tout le parcours : découverte, achat, support post‑achat.
Les éléments structurants de l’UCP :
- un protocole unique interopérable entre agents, retailers et paiements,
- co‑développé avec des acteurs majeurs du retail (dont Shopify, Walmart, Target, Etsy, Wayfair), et soutenu par un écosystème de partenaires,
- intégré à Google Search (AI Mode) et à l’app Gemini pour des expériences de checkout agentique,
- paiements via Google Pay, avec PayPal annoncé comme à venir, tandis que le retailer reste “seller of record”.
Parce que le commerce agentique, sans standard, devient vite un enfer : intégrations spécifiques, responsabilités floues, litiges en série. UCP est une tentative de réduire la fragmentation avant qu’elle ne devienne irréversible.
Données personnelles : Gemini se “personnalise” en branchant Gmail, Photos, YouTube, Search… 20 années de vos données dans l’IA !
Google lance en bêta (États‑Unis) Personal Intelligence dans Gemini : un mode où l’utilisateur peut connecter ses apps Google en un tap. Gmail, Photos, YouTube, Search deviennent des sources contextuelles pour des réponses plus pertinentes — et parfois, pour retrouver des détails précis (document, photo, réservation).
Deux points de design importants :
- c’est off par défaut, activable et désactivable par l’utilisateur,
- Google insiste sur le fait que Gemini ne s’entraîne pas “directement” sur le contenu de Gmail/Photos ; l’usage est contextualisé à la requête, avec des garde‑fous et une logique de contrôle.
Limites d’emblée : la bêta vise des abonnés Google AI Pro et AI Ultra aux États‑Unis, et n’est pas proposée aux comptes Workspace (business/enterprise/education) au lancement.
C’est une sujet à suivre car c’est la version “produit grand public” d’une vérité stratégique : l’IA la plus utile est celle qui connaît votre contexte. Et, symétriquement, l’IA la plus sensible est celle qui voit votre boîte mail. La personnalisation est un accélérateur… et un démultiplicateur de responsabilités (conformité, consentement, gouvernance, explicabilité).
Géopolitique : les puces IA deviennent un objet tarifaire (et donc un risque de planification)
Les États‑Unis imposent un tarif de 25% sur certains semi‑conducteurs IA avancés (dont Nvidia H200 et AMD MI325X), lorsqu’ils sont produits hors des États‑Unis et transitent par le territoire américain avant export vers des clients en Chine, selon les informations rapportées par Reuters et d’autres titres.
Il y a ici un mécanisme très “réel” : des puces envoyées aux États‑Unis pour tests / intégration puis réexportées vers la Chine, se retrouveraient dans le champ du tarif.
Le sujet géopolitique des puces IA montre que :
- La chaîne d’approvisionnement IA n’est pas seulement une question de prix et de délais, mais de trajectoire réglementaire.
- La conséquence immédiate, c’est une volatilité accrue des stratégies de procurement (cloud, on‑prem, partenaires, localisation des étapes de production/intégration).
Les architectures IA peuvent devenir des architectures tarifaires sans nous demander notre avis.
Compétences : IBM martèle que sans AI literacy, l’argent brûle
Lors d’un échange rapporté autour d’IBM (Raleigh), Phaedra Boinodiris (IBM) et Rachel Levy (North Carolina State University) défendent l’idée que l’AI literacy doit devenir une compétence de base, bien au‑delà du “prompting”. Le message : sans compréhension des données, objectifs, contraintes et limites, les organisations surinvestissent… et échouent.
Cette alerte s’appuie sur une idée devenue virale en 2025 : le rapport MIT NANDA “The GenAI Divide: State of AI in Business 2025”. Souvenez-vous, le document affirme que malgré 30 à 40 Md$ investis, 95% des organisations n’obtiennent aucun retour mesurable, et décrit une adoption large mais une transformation faible. Le rapport détaille sa méthodologie (revue de 300+ initiatives publiques, 52 entretiens, 153 réponses de dirigeants), qui n’est pas sans problème pour tenter de démontrer un ROI (ne serait-ce que l’horizon temporel de 6 mois).
Je trouvais intéressant de relier ces actualités car difficile d’imaginer déployer des agents sans pilote (formé) :
- l’agentique (qui exige des accès),
- et l’AI literacy (qui conditionne l’usage sûr de ces accès).
Éducation : “le manuel” devient un service adaptatif et Google met des chiffres sur la table
Google met en avant Learn Your Way, une expérimentation Google Labs issue de Google Research, qui “réimagine” les manuels et PDFs via IA générative, en générant des représentations multiples (texte immersif, quiz, mind maps, audio, slides narrés), et une personnalisation basée sur niveau et centres d’intérêt.
Le point clé n’est pas l’interface. C’est l’effort de validation :
- une étude contrôlée randomisée avec 60 élèves (15–18 ans, Chicago),
- et des résultats annoncés : +9% sur l’évaluation immédiate, et +11 points sur la rétention à 3–5 jours (78% vs 67%) vs lecteur PDF standard.
Cette étude est passionnante parce qu’on passe d’un contenu “statique” à un contenu orchestré selon les besoins de l’apprenant.
Et dès que le contenu est orchestré, la question devient : qui contrôle la transformation, avec quelles règles, quelles preuves d’efficacité, et quel respect des sources ?
Learn Your Way est un signal : l’IA éducative tente de sortir du débat “triche vs anti‑triche” pour entrer dans le débat “mesure vs opinion”.
Horizon : Yann LeCun lance AMI Labs et remet les “world models” au centre
Yann LeCun prépare Advanced Machine Intelligence Labs (AMI Labs), et vise une levée évoquée autour de €500M pour une valorisation ~€3 à 5 Md (pré‑lancement), selon des informations rapportées notamment par Reuters (via FT).
L’organisation est atypique : LeCun prend le rôle d’Executive Chairman, et Alexandre (Alex) LeBrun (Nabla) devient CEO, point confirmé publiquement par LeCun. Laurent Solly va être aussi de la partie suite à son récent départ de Meta France.
Le Monde qui a traité cette actualité ajoute une couche stratégique que je trouve très intéressante personnellement : ambition de bâtir des systèmes qui comprennent le monde physique (au‑delà des LLM), ancrage à Paris, et discours sur souveraineté et trajectoire de recherche plus ouverte que beaucoup d’autres acteurs (exception faite de Mistral AI notamment).
C’est à suivre parce que si l’agentique est “l’exécution”, les world models visent “l’anticipation”. Et l’industrie est bien en quête de ce chaînon manquant pour des domaines où il faut planifier, maintenir un état, simuler : robotique, industrie, logistique… et, santé !
FAQ
Qu’est-ce que “Claude for Healthcare” d’Anthropic ?
C’est une offre santé annoncée comme HIPAA‑ready, conçue pour des usages cliniques et administratifs, avec un discours “privacy‑first” et des garde‑fous sur l’usage des données.
Que propose “ChatGPT Health” d’OpenAI ?
OpenAI présente ChatGPT Health comme une expérience orientée santé/bien‑être, avec des insights personnalisés, et rappelle l’ampleur des usages santé sur ChatGPT.
Pourquoi l’AI literacy est-elle devenue un sujet de ROI ?
Parce que des initiatives comme le rapport MIT NANDA décrivent un écart entre adoption et transformation, et des intervenants (IBM / université) défendent une littératie IA élargie (données, objectifs, limites).
Qu’est-ce que le Universal Commerce Protocol (UCP) de Google ?
Un standard ouvert visant à permettre des parcours d’achat gérés par agents (découverte → checkout → support) via un protocole interopérable, intégré à AI Mode et Gemini.
Que change “Personal Intelligence” dans Gemini ?
C’est une personnalisation par connexion de données Google (Gmail, Photos, YouTube, Search) en bêta US, opt‑in, avec promesses de contrôle et garde‑fous.
Pourquoi les tarifs US sur puces IA (H200) comptent pour les entreprises ?
Ils augmentent la volatilité de la chaîne hardware IA et rendent la conformité logistique (où transitent les puces) stratégiquement déterminante.
Que montre “Learn Your Way” sur l’IA en éducation ?
Google présente une approche multimodale et personnalisée de transformation de manuels, avec une étude contrôlée rapportant des gains d’apprentissage et de rétention.