Actualité IA semaine 51

Weekly AI 51 : l’IA toujours aussi dynamique en fin d’année !

Huit annonces. Huit angles différents. Une certitude : le secteur IA est toujours aussi dynamique en cette fin d’année 2025 ! C’est même assez impressionnant à ce niveau là d’intensité !

1. Lovable : la démonstration éclatante du vibe-coding

La startup suédoise Lovable frappe fort. Très fort.
330 millions de dollars levés en série B. Une valorisation de 6,6 milliards. Cinq mois plus tôt, elle valait 1,8 milliard.

Ce n’est pas qu’une histoire de multiples financiers. C’est une histoire de vitesse d’adoption.

  • 100 millions de dollars d’ARR atteints en 8 mois
  • 200 millions quatre mois plus tard
  • 25 millions de projets créés en un an
  • Plus de 100 000 nouveaux projets chaque jour

Lovable permet de créer des applications complètes – base de données, paiements, hébergement – à partir de simples instructions en langage naturel. Plus besoin de coder. Plus besoin, parfois, de développeurs.

Lovable n’est pas un outil. C’est un changement de chaîne de valeur.
Le développement logiciel quitte les équipes IT pour entrer dans les métiers. Cela promet vitesse et autonomie. Cela pose aussi des questions lourdes : sécurité, dette technique invisible, gouvernance des applications “fantômes”.
L’Europe, au passage, montre qu’elle peut produire des champions IA globaux. Mais la question reste entière : saura-t-elle les garder.

Je réponds ici en tant qu’analyste international des stratégies IA et des plateformes numériques, spécialisé dans la lecture froide des rapports de force technologiques et de leurs implications organisationnelles.

Vous avez raison : la première actualité (Lovable) était traitée au niveau de granularité adéquat. Voici donc le même niveau de détail factuel et le même niveau de décodage stratégique appliqués aux actualités 2 à 8, sans raccourci ni effet de style creux.

2. OpenAI ouvre ChatGPT aux applications : la naissance d’un véritable marché interne

OpenAI a officiellement ouvert la soumission d’applications natives au sein de ChatGPT. Il ne s’agit plus de simples plugins périphériques, mais d’applications exécutées directement dans la conversation, déclenchables par contexte, mention ou outil, et surtout référencées dans un annuaire natif.

Ce point est fondamental. OpenAI ne fournit plus seulement un accès à des modèles via API. Il fournit désormais :

  • une distribution intégrée,
  • une découvrabilité algorithmique,
  • et les prémices d’une monétisation structurée (liens de paiement externes aujourd’hui, biens numériques demain).

Le parallèle historique est évident : Apple avec l’App Store, Google avec Play, Tencent avec WeChat. Chaque fois, l’interface dominante est devenue un point de captation de valeur massif.

ChatGPT revendique déjà plusieurs centaines de millions d’utilisateurs hebdomadaires. Même un faible taux de commission sur des transactions ou abonnements transitant par ces apps représenterait des milliards de dollars de revenus à forte marge, exactement ce dont OpenAI a besoin à l’approche d’une IPO annoncée pour fin 2026.

OpenAI cesse d’être un fournisseur technologique. Il devient un intermédiaire économique. Pour les entreprises, construire des outils internes ou clients dans ChatGPT revient à accepter :

  • une dépendance fonctionnelle,
  • une dépendance commerciale,
  • et demain, potentiellement, une dépendance réglementaire.

La question n’est pas faut-il y aller ? mais jusqu’où accepter de s’y enfermer. Ca rappelle un peu (beaucoup) la stratégie AppStore d’Apple, en son temps, sur l’iPhone.

3. ChatGPT Images : la fin du bricolage créatif, le début de la production à l’échelle

OpenAI a lancé ChatGPT Images, propulsé par GPT-Image-1.5, avec un positionnement très clair : performance, cohérence et coût maîtrisé.

Sur le plan factuel :

  • génération jusqu’à 4 fois plus rapide,
  • amélioration majeure du respect des instructions complexes,
  • rendu textuel plus fiable (un point historiquement faible),
  • cohérence visuelle maintenue sur plusieurs itérations,
  • baisse de 20 % des coûts API par rapport à la version précédente.

Surtout, l’expérience est désormais intégrée dans un espace créatif dédié, avec filtres, prompts tendances et possibilité de réutiliser une “likeness” (apparence, style) sans recharger de données.

OpenAI cible explicitement les équipes créatives, marketing, e-commerce et produit qui génèrent des volumes industriels d’images, et non plus des visuels ponctuels.

Nous assistons à une désacralisation de la création visuelle. Quand la production devient rapide, cohérente et peu coûteuse, la différenciation ne vient plus de l’exécution mais de :

  • la stratégie de marque,
  • la direction artistique,
  • la capacité à orchestrer des flux créatifs continus.

L’IA ne remplace pas la créativité. Elle banalise la production. Et d’autant plus qu’Open AI a aussi annoncé cette semaine le déploiement de l’offre Go en France ! Pour 8 € / mois, un accès à ChatGPT5.2, avant de rebasculer sur 4o (mais moins rapidement qu’en version gratuite).

4. Nvidia et la Chine : l’IA rattrapée par la realpolitik

Nvidia envisage d’augmenter la production de ses GPU H200 pour répondre à une demande chinoise extrêmement forte, après avoir obtenu une autorisation conditionnelle des autorités américaines.

Le compromis est inédit :

  • export autorisé,
  • mais 25 % des revenus reversés au gouvernement américain.

Les H200, issus de la génération Hopper, sont significativement plus puissants que les H20 “dégradés” jusque-là autorisés à l’export. Des géants chinois comme Alibaba ou ByteDance ont immédiatement manifesté leur intérêt.

Côté chinois, la décision finale d’importation reste suspendue à l’aval des autorités, ajoutant une incertitude supplémentaire.

La capacité de calcul est devenue un instrument géopolitique explicite. Toute stratégie IA dépend désormais :

  • de décisions étatiques,
  • de régulations mouvantes,
  • et de chaînes d’approvisionnement sous tension.

Penser l’IA sans penser le hardware, c’est planifier sur du sable… et ça ne veut pas dire grand chose. L’Europe devrait avancer un peu plus là dessus… d’autant que la Chine a beaucoup progressé sur la réalisation de ses propres puces IA (en raison des décisions précédentes de l’administration américaine concernant l’export de puces Nvidia).

5. Google généralise Gemini 3 Flash : la stratégie de l’évidence silencieuse

Google a discrètement déployé Gemini 3 Flash comme modèle par défaut sur Gemini, Search, AI Studio et Vertex AI. Aucun lancement spectaculaire. Aucun positionnement premium. Flash offre :

  • une latence très faible,
  • un raisonnement solide pour des usages réels,
  • un coût suffisamment bas pour des usages continus,
  • des performances proches de modèles bien plus lourds sur le code et l’agentivité.

Google fait ici un choix stratégique clair : l’intelligence par défaut. Google ne cherche pas la domination symbolique. Il cherche l’infrastructure invisible, le réflexe automatique. Quand l’IA devient rapide, bon marché, omniprésente, la question du modèle disparaît. Reste celle de l’écosystème. Et Google excelle à verrouiller les usages par intégration, tout en absorbant un maximum de données !

6. Amazon et OpenAI : l’ère des accords circulaires

Amazon discuterait d’un investissement de 10 milliards de dollars dans OpenAI, assorti d’une obligation d’utiliser ses puces Trainium et son cloud AWS. Ce schéma s’inscrit dans une série d’accords similaires :

  • investissement d’OpenAI dans CoreWeave → achat de GPU Nvidia → puissance de calcul pour OpenAI,
  • prise de participation dans AMD,
  • accords avec Broadcom,
  • contrat cloud de 38 milliards avec Amazon.

Ces montages créent des boucles de valeur fermées… et alimentent chez beaucoup de monde la crainte d’une bulle IA, à laquelle je ne crois toujours pas personnellement (j’imagine plutôt une correction sur 2026 suivie d’un départ à la hausse à nouveau fin 2026 / début 2027). L’IA moderne est structurellement capitalistique. Celui qui finance oriente l’architecture. Celui qui héberge influence la feuille de route. Pour les clients finaux, cela signifie une concentration du risque chez quelques acteurs systémiques.

7. Databricks : refuser l’IPO pour mieux capter la valeur

Databricks lève 4 milliards de dollars en série L, valorisation 134 milliards. Trois levées majeures en moins d’un an. Les fondamentaux sont solides :

  • 4,8 milliards de dollars de revenus annualisés,
  • croissance de 55 %,
  • plus d’un milliard lié directement aux produits IA,
  • plateformes orientées agents, données propriétaires et intégration LLM.

Databricks mise sur une idée simple : l’IA d’entreprise n’existe que si elle est nourrie par les données internes. Les modèles sont interchangeables. Les données ne le sont pas. Databricks se positionne comme la couche qui transforme vos données en avantage compétitif durable, loin du bruit médiatique des modèles.

8. Hassabis vs LeCun : deux visions irréconciliables de l’intelligence

Le débat entre Demis Hassabis et Yann LeCun cristallise une fracture conceptuelle majeure et a alimenté l’actu cette semaine. Hassabis parle de convergence des modèles (langage, vision, monde simulé) vers une proto-AGI. LeCun rejette l’idée même d’intelligence générale, rappelant que l’humain est fondamentalement spécialisé. Il préconise aussi le développement de nouveaux modèles ‘world models’ via sa startup qui serait déjà assez fortement valorisée. Ce débat n’est pas théorique. Il conditionne : les horizons d’investissement, la tolérance au risque, la temporalité des ROI et la pertinence des approches actuelles. Croire à l’AGI justifie des paris longs et coûteux. Ne pas y croire favorise des IA ciblées, mesurables, rentables.

Alain Goudey

Imaginer l'Ecole du futur à NEOMA, créer l'identité sonore des marques avec Atoomedia & Mediavea, conseiller sur la transformation numérique avec Sociacom | Expert en éducation, technologies disruptives, IA & design sonore.

Voir tous les articles de Alain Goudey →

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *