Weekly S.52 et S.1 sur l'IA

Weekly AI S.52 & S.01 : OpenAI, Deepseek, Alphabet, Vibe coding, Model overhang, Softbank marquent l’actualité

Pour commencer ce nouveau weekly, je vous souhaite évidemment à vous, fidèles lectrices et lecteurs de mon weekly IA une très belle et heureuse année 2026 ! Je suis certain qu’elle nous réserve encore de nombreuses surprises dans le champ des IA et des IA génératives… car cette transformation n’a pas encore atteint son niveau de maturité technique d’une part et implique encore de très nombreuses transformations dans les habitudes, les comportements, les organisations et la société d’autre part. Cela fait désormais plus de 3 ans que le monde vit au rythme des annonces IA et celui-ci ne semble toujours pas faiblir.

Alors, après avoir longuement hésité à continuer ce weekly sur 2026 (car il en existe quelques autres), j’ai décidé finalement de poursuivre sur 2026. N’hésitez pas à laisser un message ou un petit like si cela vous semble utile, ça fait toujours plaisir !

OpenAI mise tout sur l’audio et prépare un basculement d’interface

Depuis plusieurs mois, OpenAI a procédé à une recomposition interne majeure : fusion d’équipes audio, rapprochement entre recherche fondamentale, ingénierie produit et design hardware. L’objectif est explicite : concevoir un appareil personnel centré sur la voix, sans écran ou quasi sans écran, attendu dans les douze prochains mois.

Ce n’est pas une itération incrémentale de ChatGPT Voice. OpenAI parle d’une refonte complète de son stack audio : reconnaissance vocale plus robuste en environnement bruyant, synthèse vocale nettement plus naturelle, gestion fine des interruptions, capacité de parler et d’écouter simultanément, un point que les assistants actuels gèrent très mal.

Ce mouvement s’inscrit dans une dynamique sectorielle convergente. La voix est déjà massivement adoptée : les enceintes intelligentes ont pénétré plus d’un tiers des foyers américains. Meta transforme ses lunettes Ray-Ban en dispositifs d’écoute active grâce à un réseau de microphones directionnels. Google expérimente des résumés audio conversationnels pour la recherche. Tesla intègre un agent conversationnel embarqué dans ses véhicules.

Les échecs récents comme Humane AI Pin, Friend AI, montrent toutefois la difficulté : supprimer l’écran ne suffit pas. Sans usage clair, sans bénéfice cognitif évident, le rejet est brutal. C’est précisément là qu’intervient la vision portée par l’arrivée de Jony Ive dans l’écosystème OpenAI : utiliser l’audio pour corriger l’addiction aux interfaces visuelles, pas pour la déplacer.

L’audio n’est plus une modalité parmi d’autres. Il devient un système d’exploitation de l’interaction humaine. Formation, relation client, outils internes : tout ce qui reste “screen-first” sera mécaniquement moins fluide.

DeepSeek montre que l’IA entre dans l’ère des contraintes

Le papier publié par DeepSeek le 1er janvier ne fait pas de bruit médiatique, mais son impact est potentiellement majeur. Il s’attaque à un problème central des architectures modernes : l’instabilité des connexions résiduelles quand on élargit les modèles.

Les architectures de type Transformer reposent sur ces connexions comme des poutres porteuses. Les élargir améliore la capacité, mais casse souvent l’identité mathématique du flux, entraînant explosions de gradients et coûts mémoire incontrôlables.

La solution proposée, manifold constrained hyper connections (ou mHC), impose une contrainte mathématique stricte : les matrices de mélange résiduel sont forcées à rester doublement stochastiques, garantissant la conservation des normes sur la profondeur.

Les résultats expérimentaux sont précis : un modèle de 27 milliards de paramètres, avec une largeur résiduelle multipliée par quatre, entraîné avec seulement +6,7 % de surcoût. Sans divergence. Sans dégradation.

La bataille de l’IA se déplace. Après les données, puis les paramètres, l’avantage compétitif devient architectural. Les organisations capables d’intégrer des contraintes mathématiques profondes gagneront en efficacité économique.

Vibe coding : productivité immédiate, fragilité différée

Michael Truell ne parle pas en observateur extérieur. Cursor, qu’il a fondé en 2022, dépasse le million d’utilisateurs quotidiens et pèse déjà plus d’un milliard de dollars. Son constat est pourtant sévère : le “vibe coding” produit du code que plus personne ne comprend.

Décrire une intention, laisser l’IA générer l’ensemble de l’application, puis empiler les fonctionnalités fonctionne à court terme. Mais à mesure que le système grossit, chaque ajout repose sur des fondations non inspectées.

Le problème n’est pas la qualité locale du code, souvent correcte. C’est la perte de compréhension globale : architecture, dépendances, invariants implicites. Quand un bug critique apparaît ou qu’une évolution stratégique est nécessaire, le système devient opaque, fragile, coûteux à maintenir.

L’IA réduit le coût de production du code. Elle augmente le coût de l’ignorance. Gouvernance technique, relecture humaine et architecture explicite deviennent des enjeux de management, pas seulement d’ingénierie.

Alphabet sécurise l’énergie, pas seulement le calcul

Alphabet rachète Intersect Power pour 4,75 Md$. Avec cette acquisition, Alphabet envoie un signal clair : le principal frein à l’IA n’est plus algorithmique, mais énergétique. Intersect Power développe des data parks directement adossés à des sources renouvelables (solaire, éolien, batteries), contournant les réseaux électriques saturés.

Le montage est fin : Alphabet récupère le pipeline de projets futurs, tandis que les actifs existants restent exploités par d’autres investisseurs. Mise en service attendue dès 2026, finalisation complète en 2027.

Ces sites sont conçus comme des campus multi-locataires, capables d’héberger d’autres acteurs industriels autour de l’infrastructure Google. L’IA devient une industrie lourde décentralisée, où énergie, foncier et délais réglementaires structurent la stratégie autant que le logiciel.

SoftBank entre au capital d’OpenAI : la centralisation s’accélère

SoftBank investit 4,1 Md$ et détient 11 % d’OpenAI. Ce tour de table valorise OpenAI à 157 milliards de dollars. Il réunit des acteurs complémentaires : Microsoft pour la plateforme, Nvidia pour le hardware, SoftBank pour la projection industrielle globale.

Ce n’est plus un pari technologique. C’est un pari systémique sur un acteur capable d’orchestrer modèles, infrastructure, distribution et écosystème.

Après une phase d’exploration, l’IA cherche à entrer dans une logique de plateformes dominantes avec une bagarre clairement annoncée pour 2026 entre Open AI et Google Gemini. Les marges se concentreront là où s’agrègent compute, capital et usages. Et ces deux entreprises sont des géants déjà lancés (il y en a quelques autres en embuscade comme Microsoft, Meta (avec son rachat de Manus) ou encore Apple (qu’on oublie un peu trop souvent à mon sens).

Le “model overhang” : trop de puissance, pas assez d’impact

Satya Nadella met des mots sur un malaise structurel. Le diagnostic est lucide : les modèles progressent plus vite que leur intégration dans les organisations. Les démonstrations sont spectaculaires et semblent toujours promises à un avenir radieux. Les déploiements réels restent lents, coûteux, risqués.

Les freins sont désormais connus : confiance, intégration aux workflows, mémoire persistante, contrôle des agents, responsabilité juridique, confidentialité des données, maîtrise réelle des outils. Résultat : le ROI plafonne, alors que les coûts de calcul explosent. Microsoft réoriente donc ses efforts vers les couches d’orchestration, les agents spécialisés et la conception de systèmes hybrides homme–IA.

La valeur semble se déplacer pour 2026, non plus dans le modèle, mais dans sa capacité à coopérer, persister et agir de façon fiable. L’IA devient (et en fait a toujours été) un problème d’organisation, pas de performance brute. Je le dis depuis un moment : quand bien même nous ne progresserions plus sur la qualité technique des modèles actuellement disponibles, nous avons déjà devant nous un temps d’absorption important car les usages ne sont pas encore matures et déployés à grande échelle. Une des raison reste la nécessité d’accompagner et de former sur les bonnes manières d’utiliser l’IA !

Alain Goudey

Imaginer l'Ecole du futur à NEOMA, créer l'identité sonore des marques avec Atoomedia & Mediavea, conseiller sur la transformation numérique avec Sociacom | Expert en éducation, technologies disruptives, IA & design sonore.

Voir tous les articles de Alain Goudey →

2 réflexions sur « Weekly AI S.52 & S.01 : OpenAI, Deepseek, Alphabet, Vibe coding, Model overhang, Softbank marquent l’actualité »

  1. Merci pour les vœux.
    Je vous souhaite également mes meilleurs vœux pour 2026 et que vous continuiez vos publications !
    Merci pour toutes les publications qui sont réellement utiles pour celles et ceux qui veulent rester informer des évolutions des usages de l’IA.
    En toute transparence, à chaque discussion liée à l’IA dans les cours et dans les échanges avec des collègues , ma première question est : est ce que vous suivez les publications de Alain Goudey?
    C’est le meilleur conseil de veille que je puisse offrir.
    Bonne IAnnée 2026
    Texte écrit sans assistance d’IA

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *