La semaine d’actualités IA qui vient de s’écouler a été particulièrement dense. Du manifeste politique de Sam Altman sur la démocratisation de l’IA aux contradictions d’Elon Musk sur le banc des témoins, en passant par un agent Claude qui efface en neuf secondes la base de données d’une startup, l’actualité dessine en creux une nouvelle réalité : l’IA n’est plus seulement une question de modèles, elle devient un sujet de gouvernance, d’infrastructure, de sécurité et de stratégie d’entreprise. Voici les huit actualités à retenir et, pour chacune, ce qu’elles changent concrètement pour les entreprises.
Sommaire
Sam Altman publie un manifeste sur la décentralisation de l’IA
Lundi, le PDG d’OpenAI a publié un texte intitulé « Our Principles », dans lequel il défend explicitement une vision décentralisée du futur de l’intelligence artificielle. Selon Altman, le pouvoir lié à l’IA peut être détenu soit par une poignée d’entreprises contrôlant une superintelligence, soit, de manière distribuée, par les citoyens — et OpenAI affirme privilégier la seconde voie. Le manifeste élargit le débat à plusieurs piliers : empowerment, prospérité universelle, résilience et adaptabilité.
Cette prise de parole prolonge un document de politique publique paru un peu plus tôt dans le mois, dans lequel les chercheurs d’OpenAI invitaient les pouvoirs publics à s’impliquer davantage dans l’encadrement du développement de l’IA. Le président d’OpenAI Greg Brockman et l’ex-cofondateur Andrej Karpathy ont tenu un discours similaire ces derniers jours, soulignant les mauvais antécédents historiques de la centralisation.
Au-delà du discours, la question stratégique est celle de la dépendance. Tant que ces engagements restent au niveau du verbe, les entreprises continuent de bâtir leurs piles technologiques sur quelques fournisseurs hyperconcentrés. Les directions générales et les DSI doivent commencer à intégrer la trajectoire de gouvernance des laboratoires de pointe dans leurs critères de sélection, au même titre que les critères techniques ou financiers, et préparer dès maintenant des architectures multi-fournisseurs, voire ouvertes, pour ne pas se retrouver captives lorsque les incitations financières post-IPO de ces acteurs prendront le dessus.
OpenAI préparerait un smartphone sans applications, propulsé par des agents
L’analyste Ming-Chi Kuo, réputé pour ses fuites précises sur le matériel Apple, a livré cette semaine de nouveaux détails sur les ambitions hardware d’OpenAI. La société travaillerait sur un smartphone reposant sur des agents IA plutôt que sur des applications classiques, en partenariat avec MediaTek et Qualcomm pour les puces, et avec Luxshare pour la co-conception et la fabrication. La finalisation des spécifications est attendue pour fin 2026 ou début 2027, avec une production de masse en 2028.
L’idée centrale : remplacer la couche applicative traditionnelle par des agents capables d’exécuter des tâches via une compréhension contextuelle continue de l’utilisateur. L’architecture combinerait modèles légers embarqués et traitement cloud. Cette stratégie permettrait à OpenAI de contourner les limitations imposées par Apple et Google aux développeurs tiers, tout en collectant des données comportementales bien plus riches que ce que permettent les applications cloisonnées d’aujourd’hui. Le PDG de Nothing, Carl Pei, défend publiquement la même thèse : les applications telles que nous les connaissons sont condamnées.
Si la thèse de Sam Altman se confirme, c’est tout le canal de distribution numérique qui se reconfigure. Les entreprises dont la relation client passe aujourd’hui par une application mobile doivent commencer à se demander à quoi ressemble leur marque, leur expérience et leur monétisation dans un monde où l’utilisateur n’ouvre plus d’app, mais demande à un agent. C’est aussi un signal pour les directions marketing et produit : le « SEO » de demain pourrait bien être l’« AEO », l’optimisation pour les agents, et il est urgent de structurer ses données et API en ce sens. C’est ce que j’avais déjà décrit dans cet article sur le GEO (Generative Engine Optimization).
Un agent Claude efface la base de données et les sauvegardes d’une startup
L’incident, désormais public, est édifiant. Un agent de codage propulsé par Claude Opus 4.6 a supprimé en neuf secondes l’intégralité de la base de production de la startup PocketOS, ainsi que toutes ses sauvegardes — entraînant trente heures de crise opérationnelle pour la SaaS et ses clients (loueurs automobiles). L’agent, confronté à une simple incohérence de credentials sur un environnement de staging, a décidé de manière autonome de supprimer un volume Railway pour « régler le problème », au lieu de demander une intervention humaine.
Pour exécuter cette suppression, il a déniché un token d’API dans un fichier sans rapport, token qui, Railway ne disposant pas d’isolation de portée, disposait des permissions nécessaires pour des opérations destructives irréversibles.
Quand on lui a demandé de s’expliquer, l’agent a produit une « confession » reconnaissant avoir violé toutes les règles de sécurité de son prompt, y compris l’instruction explicite de ne jamais lancer de commandes destructives sans validation humaine. Le fondateur de PocketOS, Jer Crane, qualifie ce type d’incident de « non seulement possible, mais inévitable » au vu des défaillances systémiques de l’infrastructure IA actuelle.
Cet incident est un cas d’école. Il démontre noir sur blanc que le prompt système ne peut pas servir de couche de sécurité unique. Toute organisation déployant des agents en production doit dès maintenant exiger : des permissions de tokens cloisonnées (principe du moindre privilège), des garde-fous au niveau API et non au niveau prompt, et une validation humaine out-of-band pour toute opération destructive. C’est aussi un argument à mettre sur la table avec les comités d’audit et de risque, qui sous-estiment souvent la spécificité des risques liés aux agents autonomes par rapport à de l’automatisation classique.
PAN Arcadia : MBZUAI redéfinit ce qu’un world model peut faire
Mercredi, l’Institute of Foundation Models (IFM) de la MBZUAI (Mohamed bin Zayed University of Artificial Intelligence, Abu Dhabi) a dévoilé PAN Arcadia, une preview de recherche d’un world model interactif en temps réel. Là où la plupart des modèles du monde s’optimisent pour la fidélité visuelle d’un clip fixe, PAN Arcadia mise sur la réactivité : à partir d’une image, l’utilisateur prend le contrôle d’un personnage avec un simple clavier, et le modèle génère l’environnement à mesure qu’il avance. Les sessions sont aujourd’hui plafonnées à 30 secondes, et le téléversement d’images personnelles est annoncé pour les prochaines versions.
Selon Zihan Liu, responsable technique à l’IFM, l’objectif est de transformer une image statique en environnement navigable, à mi-chemin entre la photo et le jeu vidéo. La performance visuelle est annoncée comme comparable à celle des autres world models de pointe, mais la priorité est donnée à la continuité et à la latence sous contrôle utilisateur.
Au-delà du gaming, ces world models interactifs ouvrent un champ massif pour la formation, la simulation, le retail expérientiel, l’immobilier et le tourisme. Imaginer une visite virtuelle d’un site industriel à partir de quelques photos, ou un parcours de formation sécurité dans un environnement reconstruit dynamiquement, n’est plus de la science-fiction. Les directions innovation et formation devraient suivre de près l’évolution de cette technologie : c’est le type de capacité qui passe en quelques trimestres du laboratoire à l’usage de masse, et qui peut redéfinir des budgets entiers de simulation et de média.
Neurable étend ses licences BCI au grand public
L’entreprise américaine Neurable, spécialiste des interfaces cerveau-ordinateur (BCI) non invasives, a annoncé l’extension de son programme de licences à l’industrie de la wearable grand public. Contrairement à Neuralink, Neurable se passe de chirurgie : la technologie repose sur des capteurs EEG couplés à un traitement du signal par IA, et peut s’intégrer dans des casques audio, des bonnets, des lunettes ou des bandeaux. Après une série A de 35 millions de dollars bouclée en décembre, la société a déjà concrétisé des partenariats notables, notamment avec HP / HyperX sur un casque de gaming optimisant la concentration, et avec iMotions pour la recherche comportementale.
Le PDG Ramses Alcaide assume un changement de braquet : passer de partenariats verticaux ciblés à une stratégie de diffusion la plus large possible, « comme un capteur de fréquence cardiaque au poignet ». Sur le sujet sensible de la donnée neuronale, Neurable affirme respecter les standards HIPAA, anonymiser et chiffrer les données, et n’entraîner ses modèles qu’avec consentement explicite et pour des expérimentations ciblées.
Un nouveau type de signal biométrique, l’attention, la charge cognitive, la fatigue, devient mesurable à grande échelle. Les opportunités sont immenses (santé au travail, productivité, formation, expérience utilisateur), mais les zones grises juridiques et éthiques aussi ! Les DRH et directions de la conformité doivent se préparer à un débat bien plus délicat que celui sur la donnée RH classique : la donnée cérébrale ne se compare ni au cardio, ni à la géolocalisation. Anticiper une politique d’usage avant que les premiers déploiements n’arrivent par la petite porte (via un casque audio d’entreprise, par exemple) est plus prudent que devoir la rédiger dans l’urgence.
Perplexity bascule son agent desktop vers l’entreprise
Lors de son événement Ask NYC mercredi, Perplexity a lancé une vague d’annonces autour de Personal Computer, son agent capable d’opérer directement sur les fichiers locaux et les applications natives, et plus seulement dans le cloud. Aravind Srinivas, son CEO, reprenant la métaphore de Steve Jobs sur l’ordinateur comme « bicyclette pour l’esprit », a décrit Personal Computer comme « une Ferrari, ou trois ».
Côté nouveautés concrètes : un partenariat avec 1Password permet à l’agent d’agir dans des outils protégés par mot de passe sans exposer les credentials au modèle ; l’accès, jusque-là réservé aux abonnés Max, est étendu aux abonnés Pro sur Mac ; l’intégration arrive dans Microsoft Teams via le Microsoft Marketplace ; et un panneau latéral natif dans Excel entre en bêta. S’ajoutent plus de 50 templates de workflows préconstruits, des connecteurs Databricks et Snowflake, ainsi qu’une offre dédiée aux services financiers permettant d’utiliser ses propres licences (Carbon Arc, Daloopa, Morningstar, PitchBook).
Selon Perplexity, son agent aurait déjà réalisé l’équivalent de 2,8 milliards de dollars de travail depuis son lancement, dont 1,6 million sur les seules quatre premières semaines, alors qu’il n’existait que sous forme interne sur Slack.
Perplexity démontre une agilité de pivot que peu d’acteurs maîtrisent, du moteur de recherche IA au copilote d’entreprise multi-canal en quelques trimestres. Pour les directions IT et métiers, la question n’est plus « faut-il un copilote ? » mais « lequel, sur quel périmètre, avec quel modèle de sécurité ? ». L’arrivée dans Excel et Teams signifie aussi que la concurrence avec Microsoft Copilot devient frontale, sur le terrain de Microsoft lui-même. Un bon moment pour challenger ses fournisseurs sur les prix et les fonctionnalités.
Musk à la barre : tweets contradictoires, aveu sur la distillation, et OpenAI muscle la sécurité des comptes
La semaine judiciaire d’Elon Musk a été riche en révélations. Mercredi, dans le cadre du procès qu’il intente à Sam Altman et à OpenAI, qu’il accuse d’avoir détourné une organisation à but non lucratif, le milliardaire a vu ses propres tweets utilisés contre lui. Il a notamment dû reconnaître sous serment que Tesla ne poursuivait pas le développement d’une AGI, contredisant un tweet récent affirmant l’inverse. L’avocat William Savitt a également exhumé des éléments montrant que Musk avait lui-même envisagé dès 2016 une transition vers le for-profit, avec une participation et un contrôle majoritaires, et qu’il avait débauché des talents d’OpenAI (notamment Andrej Karpathy) pour Tesla pendant qu’il siégeait encore à son conseil. Sa déclaration d’avoir investi 100 millions de dollars dans OpenAI a aussi été nuancée : seuls 38 millions ont effectivement été versés.
Mais l’aveu le plus stratégique est venu jeudi : interrogé sur la distillation, technique consistant à entraîner un modèle en interrogeant massivement un modèle concurrent, Musk a confirmé que xAI l’avait pratiquée sur les modèles d’OpenAI pour entraîner Grok, qualifiant l’usage de « partiel » mais répandu dans l’industrie. C’est la première confirmation publique qu’un laboratoire occidental le fait sur un autre, alors qu’OpenAI et Anthropic ont jusqu’ici concentré leur discours sur les acteurs chinois. Toujours sous serment, Musk a classé les laboratoires : Anthropic en tête, suivi d’OpenAI, Google, puis les modèles open source chinois, qualifiant xAI d’acteur encore modeste.
Dans le même temps, OpenAI a annoncé jeudi son programme Advanced Account Security (AAS), ciblant journalistes, dissidents, élus et utilisateurs sensibles, avec un partenariat Yubico lançant deux clés co-brandées (YubiKey C NFC et C Nano). Le contexte : la multiplication des attaques de phishing visant les comptes chatbots, dont les conversations contiennent désormais autant de matière sensible — voire plus — que les boîtes mail.
Trois enseignements en un à mon sens. D’abord, la communication publique des dirigeants tech (ou non d’ailleurs) a désormais une valeur juridique opposable : la frontière entre tweet et déposition s’est effondrée. Ensuite, la distillation entre laboratoires occidentaux ouvre une question juridique et contractuelle de premier plan : les conditions d’utilisation des API sont en passe de devenir un sujet de propriété intellectuelle stratégique, et les contrats fournisseurs doivent être relus en conséquence. Enfin, la sécurisation des comptes chatbots, y compris en entreprise, doit rejoindre les sujets de priorité 1 du RSSI, avec MFA matérielle, gestion des sessions, et politiques claires sur ce que les collaborateurs y déposent.
Cisco lance un « test ADN » pour les modèles d’IA
Jeudi, Cisco a dévoilé son Model Provenance Kit, présenté comme un « test ADN pour les modèles d’IA ». L’outil analyse l’identité d’un modèle à partir des métadonnées d’architecture, de la structure du tokenizer et des poids appris, pour produire une « empreinte » riche et un score de provenance unique. Deux modes d’utilisation : un mode Compare qui établit un score de filiation entre deux modèles donnés, et un mode Scan qui confronte un modèle à une base d’empreintes connues pour identifier ses ancêtres probables. Évalué sur un benchmark de 111 paires, le système n’a mal classé que 4 cas, tous impliquant des transformations architecturales extrêmes. Le code est disponible sur GitHub, la base d’empreintes sur Hugging Face.
Pour Amy Chang, qui dirige le renseignement et la recherche sécurité IA chez Cisco, « la provenance des modèles sera la fondation de la gouvernance et de la sécurité IA », en permettant de tracer comment un système est construit, comment il évolue, et comment ses sorties peuvent être attribuées de manière fiable dans les environnements à fort enjeu. L’outil cible un problème devenu épineux : on télécharge des modèles open source sur Hugging Face sans pouvoir vérifier qu’un développeur n’a pas simplement repris et modifié un modèle existant en prétendant l’avoir entraîné de zéro, avec à la clé des risques de biais cachés, de licences non respectées, de modèles empoisonnés, ou de vulnérabilités importées.
La gouvernance des modèles est en train de rejoindre celle des logiciels open source, avec un équivalent du SBOM (Software Bill of Materials) en gestation. Les directions IT et conformité doivent commencer à exiger, dans leurs procédures d’achat et de mise en production, une traçabilité prouvée de l’origine des modèles déployés — au même titre qu’on exige aujourd’hui les licences et les CVE pour les dépendances logicielles. Cisco se positionne ici en partenaire d’infrastructure naturel : pour les décideurs, c’est aussi un signal que le marché des outils de gouvernance IA est en train de se structurer, et qu’attendre encore six à douze mois pour s’équiper sera plus risqué que coûteux.