Actualités IA entreprise 2026

Intelligence artificielle et entreprises : 8 actualités de la semaine 13

L’intelligence artificielle en entreprise ne progresse plus ! L’IA mute. Cette semaine 13 en est une preuve intéressante. Une attaque de supply chain IA paralyse un outil utilisé par des millions de développeurs. Meta transforme ses 78 000 salariés en opérateurs d’agents IA. Roche déploie la plus grande usine de calcul du secteur pharmaceutique. Et OpenAI ferme Sora, son produit vidéo phare, pour se recentrer. Le marché bouge vite. Trop vite pour ceux qui ne font qu’observer, sans agir, sans tester, sans créer une vision précise de ce monde qui se consolide un peu plus tous les jours.

Huit actualités. Huit signaux faibles, ou forts, selon votre position sur le sujet. Le décryptage de la semaine.

1. LiteLLM compromis : quand la chaîne d’approvisionnement logicielle devient l’angle mort

Les faits

Le 24 mars 2026, deux versions malveillantes de LiteLLM, versions 1.82.7 et 1.82.8, ont été publiées sur PyPI, le dépôt central des paquets Python. LiteLLM est une bibliothèque open source qui sert d’interface unifiée pour accéder à plus de 100 modèles d’IA. Elle totalise environ 97 millions de téléchargements mensuels.

L’attaque n’est pas venue de nulle part. Elle constitue la troisième phase d’une campagne coordonnée menée par un groupe identifié sous le nom de TeamPCP. Première étape : la compromission de Trivy, un scanner de vulnérabilités, le 19 mars. Deuxième étape : Checkmarx, le 21 mars. Troisième étape : LiteLLM.

Le mécanisme de l’attaque

Le scénario est redoutable de précision. Les attaquants ont d’abord compromis Trivy, utilisé dans le pipeline CI/CD de LiteLLM. Via cette brèche, ils ont exfiltré le token de publication PyPI du projet. Avec ce sésame, ils ont publié deux versions infectées contenant un voleur d’identifiants, un outil de mouvement latéral Kubernetes, et une porte dérobée persistante.

Le malware ciblait large : variables d’environnement, clés SSH, tokens cloud, secrets CI/CD, configurations Docker, historiques shell. Les données étaient chiffrées en AES-256 puis RSA-4096, avant d’être envoyées vers un domaine imitant l’infrastructure légitime. Ironie du sort : un bug dans le code malveillant provoquait un fork bomb qui faisait planter les machines. C’est ce crash qui a alerté Callum McMahon, chercheur chez FutureSearch.

Ce que cela implique pour les décideurs

LiteLLM se positionne entre les applications et les fournisseurs d’IA. C’est un nœud névralgique. Compromettre ce type de composant revient à intercepter le trafic d’un carrefour autoroutier. Les certifications de sécurité affichées, SOC2 et ISO 27001 via Delve, un prestataire lui-même sous le feu des critiques, n’ont rien empêché.

Pour lesorganisations qui développent des outils basés sur des modèles d’IA, la question est directe. Qui audite vos dépendances logicielles ? Qui vérifie que votre pipeline d’intégration continue n’est pas lui-même un vecteur d’attaque ? Les certifications rassurent. Elles ne protègent pas.

2. Meta se transforme en organisation agentique

Les faits

Le Wall Street Journal a révélé que Meta déploie des agents IA à travers l’ensemble de son organisation. Les 78 000 employés disposent désormais d’outils comme MyClaw, qui donne accès aux fichiers internes, aux historiques de conversations et permet de communiquer avec des collègues, ou leurs agents IA respectifs. Un second outil, Second Brain, construit sur l’infrastructure d’Anthropic, fonctionne comme un chef de cabinet numérique.

Mark Zuckerberg lui-même développe un agent personnel conçu pour accélérer son accès à l’information interne. L’objectif : court-circuiter les couches hiérarchiques qui ralentissent la remontée de données vers la direction.

La productivité comme argument massue

Les chiffres avancés sont significatifs. Susan Li, directrice financière de Meta, a déclaré que la productivité par ingénieur a augmenté de 30 % depuis début 2025. Les utilisateurs les plus engagés affichent des gains de 80 % en glissement annuel. Meta prévoit entre 115 et 135 milliards de dollars de dépenses d’investissement pour 2026, soit le double de 2025.

L’acquisition de Manus, développeur d’agents IA généralistes, pour 2 milliards de dollars en décembre 2025, confirme la direction stratégique. Meta ne teste plus l’IA. Meta fonctionne par l’IA.

La question qui dérange

La frontière entre organisation humaine et système logiciel s’estompe. Quand des agents communiquent entre eux, quand un PDG délègue la collecte d’information à un algorithme, l’organigramme devient un graphe computationnel. Pour les universités et grandes écoles, cette évolution pose une question pédagogique fondamentale : formons-nous correctement des managers capables de piloter des organisations où la moitié des interactions sont non humaines ?

3. Roche et Eli Lilly : la découverte de médicaments entre dans l’ère du calcul massif

Les faits

Roche a annoncé le déploiement de 2 176 GPU NVIDIA Blackwell, portant son infrastructure totale à plus de 3 500 GPU. C’est la plus grande usine IA hybride-cloud annoncée dans l’industrie pharmaceutique. Les GPU sont répartis entre les États-Unis et l’Europe, intégrés sur l’ensemble de la chaîne de valeur.

Cette annonce suit de près celle d’Eli Lilly, qui a lancé LillyPod, un supercalculateur construit sur 1 016 GPU Blackwell, dans le cadre d’un investissement d’un milliard de dollars. Deux géants pharmaceutiques, deux stratégies convergentes : le calcul comme infrastructure fondamentale, pas comme expérimentation marginale.

Pourquoi ça change la donne

Développer un médicament coûte plus d’un milliard de dollars. Cela prend dix ans en moyenne. Roche utilise la plateforme NVIDIA BioNeMo pour alimenter sa stratégie « Lab-in-the-Loop », où les modèles d’IA sont couplés itérativement avec les expériences en laboratoire. Genentech, filiale de Roche, indique que l’IA est utilisée dans tous ses programmes d’anticorps et environ 90 % de ses programmes éligibles de petites molécules.

Les résultats concrets émergent. La conception de molécules est accélérée de 25 % sur certains programmes. Des configurations structurelles inaccessibles par les méthodes classiques ont été identifiées. Des jumeaux numériques simulent des lignes de production entières avant leur construction physique.

Ce que cela signifie pour la recherche académique

La recherche pharmaceutique devient un problème de débit computationnel. Les universités qui forment des chercheurs en biologie, chimie ou pharmacologie doivent intégrer cette réalité. Sans accès au calcul de haute performance, sans compétences en modélisation IA, les chercheurs de demain ne seront pas compétitifs. Le laboratoire classique ne disparaît pas. Il devient un nœud dans un réseau de calcul distribué… il faut dans ces domaines aussi faire bouger les curricula !

4. Spotify déploie un bouclier contre l’IA musicale frauduleuse

Les faits

Spotify lance en bêta une fonctionnalité appelée « Artist Profile Protection ». Le principe : les artistes inscrits peuvent examiner et approuver ou refuser toute sortie musicale soumise sous leur nom avant qu’elle n’apparaisse sur leur profil. Seul le contenu validé contribue aux statistiques, aux recommandations et à la page officielle de l’artiste.

Le contexte est éloquent. Sony Music a demandé le retrait de plus de 135 000 morceaux générés par IA usurpant l’identité de ses artistes. La prolifération d’outils de génération musicale par IA a multiplié les cas d’attribution erronée, qu’ils soient accidentels ou malveillants.

Un système d’approbation préventif

L’innovation réside dans l’approche. Spotify passe d’un modèle réactif, signalement après publication, à un modèle préventif, approbation avant publication. Les artistes reçoivent une notification par e-mail dès qu’un contenu est soumis avec leur nom. Ils décident. C’est un renversement du paradigme de modération.

La fonctionnalité cible les artistes ayant subi des attributions répétées incorrectes, ceux dont le nom prête à confusion, ou ceux souhaitant un contrôle renforcé. Elle est accessible via le tableau de bord « Spotify for Artists » sur desktop et mobile.

Les enjeux pour l’ensemble des industries créatives

Cette actualité dépasse la musique. Elle illustre un problème systémique : comment authentifier la paternité d’un contenu dans un monde où l’IA produit à la chaîne ? Pour le monde de la création, la question résonne avec la fraude, l’attribution de travaux, la protection de la propriété intellectuelle des créateurs et des artistes. Les mécanismes de vérification préventive que Spotify expérimente pourraient inspirer des solutions.

5. « Make America AI-Ready » : les États-Unis lancent un programme national de littératie IA

Les faits

Le 25 mars 2026, le Département du Travail américain a lancé « Make America AI-Ready », un cours gratuit de littératie en intelligence artificielle. Son originalité : il se déroule entièrement par SMS. Pour s’inscrire, il suffit d’envoyer le mot « READY » au numéro 20202. Le programme se complète en sept jours, à raison de dix minutes quotidiennes.

Le contenu s’aligne sur les cinq domaines fondamentaux du AI Literacy Framework publié en février par le Département du Travail. Le programme est développé en partenariat public-privé avec Arist, une plateforme d’apprentissage par IA. Une initiative à suivre et qui pourrait inspirer le gouvernement français ?

Un choix de format radical

Le SMS comme vecteur d’apprentissage n’est pas un gadget. C’est un choix d’accessibilité calculé. Pas besoin d’ordinateur. Pas besoin d’une connexion Internet stable. Le programme cible explicitement les travailleurs éloignés des outils numériques traditionnels.

Parallèlement, la National Science Foundation a annoncé l’initiative « AI-Ready America » avec un financement pour créer des hubs de coordination dans les 56 États et territoires. Chaque hub recevra jusqu’à un million de dollars annuels sur trois ans. L’objectif couvre trois axes : compétences IA pour la main-d’œuvre, assistance technique pour les PME, et parcours d’apprentissage pratiques.

Ce que cela pose comme question

Le programme est prometteur. Mais sept jours de SMS suffisent-ils à construire une compréhension critique de l’IA ? La littératie en intelligence artificielle ne se limite pas à savoir utiliser un outil. Elle implique de comprendre ses limites, ses biais, ses modes de défaillance. Pour les universités, c’est un signal clair. Si l’État fédéral investit dans la formation de base, c’est aux établissements d’enseignement supérieur de proposer les niveaux supérieurs, intermédiaire et avancé. La demande arrive. Le marché se structure, mais nous sommes encore trop peu nombreux à pouvoir accompagner le milliard de personnes qui va voir près de 40% des compétences clés liées à son métier évoluer d’ici à 2027 !

6. Claude prend le contrôle de votre ordinateur : Anthropic accélère sur les agents autonomes

Les faits

Anthropic a mis à jour Claude (encore une fois !) pour permettre l’exécution autonome de tâches via le contrôle direct de l’ordinateur de l’utilisateur. La fonctionnalité, disponible en préversion pour les abonnés Pro et Max sur macOS, permet d’ouvrir des fichiers, de naviguer sur le web, d’utiliser des applications et d’exécuter des outils de développement, y compris en l’absence de l’utilisateur.

Le système fonctionne en tandem avec l’application mobile de Claude. Il privilégie les connecteurs vers des services supportés comme Slack ou Google Workspace. En l’absence de connecteur, il contrôle directement le navigateur, la souris, le clavier et l’écran. Les fonctionnalités pleuvent en ce moment du côté d’Anthropic qui arrive à surfer sur le (non) choix du Pentagone.

Un changement de paradigme dans l’interaction homme-machine

L’agent ne se contente plus de répondre. Il agit. Il manipule l’interface comme le ferait un humain. Cette capacité, introduite en concept en 2024, devient un produit utilisable. Les tâches répétitives, les enchaînements manuels entre applications, les opérations de routine : tout cela devient délégable.

Le système fonctionne particulièrement bien avec Dispatch, qui permet d’assigner des tâches depuis un téléphone. Les tâches complexes nécessitent parfois plusieurs tentatives. Le contrôle d’écran reste plus lent que les intégrations directes.

Les implications pour la gouvernance numérique dans les organisations

Claude demande une permission explicite avant de prendre le contrôle. C’est un garde-fou nécessaire. Mais les organisations soucieuses de sécurité devront évaluer les implications d’accès avant tout déploiement. Qui autorise quoi ? Quelles données sont accessibles à l’agent ? Quels journaux de traçabilité sont conservés ? Pour les DSI, ce type de fonctionnalité ouvre un champ de réflexion immédiat sur la gouvernance des agents autonomes dans les systèmes d’information.

7. OpenAI ferme Sora et perd du terrain face à Anthropic

Les faits

Le 24 mars 2026, OpenAI a officiellement annoncé la fermeture de Sora, son application de génération vidéo par IA. L’application, l’API et les fonctionnalités vidéo intégrées à ChatGPT sont concernées. La décision intervient après un effondrement de la demande : les téléchargements sont passés de 3,33 millions en novembre 2025 à 1,13 million en février 2026. Le revenu total de l’application sur toute sa durée de vie : 2,1 millions de dollars. Le coût estimé d’inférence : 15 millions de dollars par jour.

L’accord de licence d’un milliard de dollars avec Disney, annoncé avec fanfare, est caduc. Aucun fonds n’a été échangé.

Le recentrage stratégique d’OpenAI

OpenAI réalloue ses ressources de calcul vers l’AGI et la simulation physique pour la robotique. La technologie de Sora ne disparaît pas. Elle change de destination. Mais le signal stratégique est clair : OpenAI abandonne les produits consommateurs coûteux pour se concentrer sur les usages entreprise.

Pendant ce temps, Anthropic progresse. Les analystes de KeyBanc estiment que Claude Code détient entre 42 % et 54 % du marché du codage IA, contre environ 20 % pour OpenAI. La part de marché de ChatGPT aurait chuté de 69 % en janvier 2025 à 45 % en janvier 2026. Anthropic revendique au moins neuf clients dépensant plus de 100 millions de dollars par an.

Ce que cela révèle sur la stratégie technologique

La dispersion tue. OpenAI a tenté la vidéo, le shopping, le navigateur, le chat, le code. Anthropic s’est concentré sur le texte et le code. Le marché a tranché. Pour les décideurs qui choisissent leurs partenaires technologiques, cette leçon est précieuse. La question n’est pas « qui fait le plus de choses ? ». C’est « qui fait le mieux ce dont vous avez besoin ? ».

8. Elon Musk dévoile le projet Terafab : fabriquer ses propres puces

Les faits

Lors d’un événement à Austin, Texas, Elon Musk a présenté son projet de construction d’une usine de fabrication de semi-conducteurs dédiée, baptisée « Terafab ». L’installation serait située près du siège de Tesla et de sa gigafactory existante. L’objectif annoncé : produire des semi-conducteurs capables de supporter entre 100 et 200 gigawatts de puissance de calcul annuelle pour les applications terrestres, et un térawatt pour les opérations spatiales.

La justification est sans ambiguïté. Les fabricants actuels ne produisent pas assez vite pour répondre aux besoins de Tesla en conduite autonome et en IA, ni à ceux de SpaceX en navigation et communications par satellite.

Les défis considérables

Construire une fonderie de semi-conducteurs n’est pas construire une gigafactory automobile. La fabrication de puces exige des salles blanches d’une précision extrême, des équipements spécialisés qui coûtent des milliards, et une expertise que Musk ne possède pas. Aucun calendrier précis n’a été communiqué. Ce flou est caractéristique du personnage ! Pour autant, il a déjà réussi plus d’une fois là où personne n’y croyait.

L’initiative s’inscrit dans un mouvement plus large d’intégration verticale. Contrôler sa chaîne d’approvisionnement en semi-conducteurs, c’est réduire la dépendance envers TSMC, Samsung et Intel. La pénurie mondiale de puces pendant la pandémie a démontré la vulnérabilité de ce modèle.

La question stratégique

L’annonce est-elle visionnaire ou excessive ? Les deux, probablement. Mais elle illustre un fait incontestable : le contrôle du calcul devient un enjeu géopolitique autant qu’industriel. Pour les responsables, l’essor de la fabrication de semi-conducteurs sur le sol américain crée un besoin en compétences que les filières actuelles peinent à couvrir. Ingénieurs en microélectronique, spécialistes des procédés de fabrication, physiciens des matériaux : la demande explose. L’offre de formation, pas encore. L’IA crée bien dans son sillon un impact économique positif sur ce genre de secteurs.

Alain Goudey

Imaginer l'Ecole du futur à NEOMA, créer l'identité sonore des marques avec Atoomedia & Mediavea, conseiller sur la transformation numérique avec Sociacom | Expert en éducation, technologies disruptives, IA & design sonore.

Voir tous les articles de Alain Goudey →

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *