Weekly AI S.04 : OpenAI, xAI, Sparkly, Apple

Weekly AI S.04 : Confer, xAI, Anthropic, OpenAI, Sparkli

Cette semaine l’IA a continué son déplacement du spectaculaire vers l’opérationnel. Du modèle vers l’architecture. Huit annonces, un même message : le vrai champ de bataille n’est plus la taille du modèle. C’est la confiance, la conformité, l’infrastructure et, osons le mot, la responsabilité.

En bref, pour les décideurs :

  • Une alternative “ChatGPT-like” pensée pour ne rien retenir de vos conversations, par conception.
  • Une architecture audio qui revendique battre les LLM en coût et précision… en assemblant des dizaines/centaines de petits modèles.
  • Un bras de fer politique : faire financer des centrales à des acteurs tech, au nom de l’IA et de la fiabilité réseau.
  • Des agents qui cliquent et tapent “comme des employés” testés en interne, avec le mot qui fâche : org chart.
  • Un contrôle d’âge côté IA grand public : signaux comportementaux + bascule automatique en mode “moins risqué”.
  • Une “constitution” d’assistant IA publiée sous licence ouverte : valeurs, arbitrages, limites, et aveux d’incertitude.
  • Un virage Apple : transformer l’assistant vocal en chatbot système, potentiellement hébergé hors de la maison Apple.
  • Une edtech IA pour enfants qui mise sur l’interactivité multimodale, pilotée en écoles, financée, et obsédée par la sécurité.

Moxie Marlinspike lance Confer : la confidentialité, non négociable

Le cofondateur de Signal s’attaque à un angle mort des assistants IA : la conversation intime… et sa mémoire potentielle. Son service, lancé en décembre puis médiatisé mi-janvier, se présente comme un assistant conversationnel classique, mais bâti pour que l’hébergeur n’ait pas accès au contenu des échanges, et donc ne puisse ni les exploiter, ni les réutiliser.

Techniquement, l’approche combine :

  • Chiffrement des messages via le système de passkeys WebAuthn (côté client).
  • Traitement côté serveur dans un Trusted Execution Environment (TEE), avec remote attestation pour vérifier que le code exécuté n’a pas été altéré.
  • Utilisation d’un ensemble de modèles “open-weight” pour répondre aux requêtes.

Le discours de Marlinspike est moins technique que stratégique : l’interface chat “invite à la confession”, et si la publicité entre dans l’équation, l’incitation économique devient toxique. Il le formule sèchement : “It’s a form of technology that actively invites confession.”

Côté modèle économique, c’est assumé : une version gratuite plafonnée (20 messages/jour, 5 chats actifs) et une offre payante à 35$/mois pour lever les limites et accéder à des modèles plus avancés et à de la personnalisation.

A suivre, parce que cela met une étiquette claire sur un futur proche : “privacy by default” pourrait cesser d’être un argument marketing, pour devenir un pré-requis d’achat (juridique, réputationnel, éthique). Et parce que l’idée d’une IA utile mais amnésique rebat les cartes de la “valeur”, qui n’est plus “je garde tout”, mais “je protège tout”.

Modulate annonce ELM : quand “petit et spécialisé” attaque “gros et généraliste”

Mardi 20 janvier 2026, Modulate (Boston) présente l’Ensemble Listening Model (ELM) et son produit Velma 2.0, en revendiquant un avantage sur les grands modèles fondationnels : meilleure précision et coût inférieur, sur des tâches de compréhension de conversation vocale.

Le principe : au lieu d’écraser l’audio en texte puis d’envoyer la transcription à un LLM, ELM traite la voix comme un signal multidimensionnel (intonation, pauses, timbre, bruit de fond, émotions, etc.).

Quelques éléments factuels (avec une nuance importante : ce sont des chiffres de l’entreprise) :

  • Velma 2.0 assemblerait plus de 100 modèles composants, structurés en couches (prétraitement audio, extraction de signaux acoustiques, intention perçue, modèles comportementaux, analyse conversationnelle).
  • Modulate affirme +30% de précision vs “les LLM leaders” et un coût 10 à 100× inférieur (selon ses benchmarks).
  • L’architecture est décrite comme “explicitement hétérogène” : chaque composant analyse un aspect différent (stress, tromperie, synthèse vocale, escalade…), fusionné par une couche d’orchestration alignée temporellement.

Le CEO Mike Pappas insiste sur l’intérêt “au-delà de l’audio” : l’enjeu est de maîtriser des ensembles hétérogènes orchestrés en temps réel, un cousin de la “sensor fusion” en véhicule autonome.

Et Modulate rappelle son terrain d’apprentissage : la modération vocale en jeu en ligne, notamment Call of Duty et Grand Theft Auto Online, où il faut distinguer la provocation “sociale” de la violence verbale réelle, dans le bruit et la latence.

A suivre, parce que 2026 pourrait être l’année où les organisations réalisent une vérité simple : un LLM est cher quand on le force à tout faire. Les architectures par ensembles spécialisés promettent mieux : plus contrôlables, plus auditées, plus frugales. Promesse, oui. Mais promesse structurante.

L’administration Trump pousse PJM Interconnection : l’IA, ça se branche… et ça se paie

Ici, l’IA cesse d’être un sujet “digital”. Elle devient un sujet électrique (en fait ça l’a toujours été, car c’est LE facteur limitant aujourd’hui du développement exponentiel de la puissance de calcul). Mi-janvier, l’administration Trump et des gouverneurs demandent à PJM Interconnection (gestionnaire de réseau sur une large zone Mid-Atlantic/Midwest) d’organiser une procurement auction d’urgence et de modifier temporairement ses règles de marché, afin de faire construire plus de 15 milliards de dollars de capacités de production “baseload” (pilotables).

La logique affichée par le U.S. Department of Energy :

  • offrir 15 ans de visibilité de revenus pour déclencher des investissements,
  • et surtout allouer davantage les coûts aux data centers qui n’ont pas auto-procuré de capacité ou accepté d’être “curtailable”, plutôt qu’aux résidentiels.

Dans la presse économique, l’approche est décrite comme inhabituelle : faire porter à des acteurs tech le financement de capacités qu’ils n’utiliseront pas forcément, pour socialiser le risque d’investissement et sécuriser l’approvisionnement.

A suivre, car cela constitue un précédent : l’IA comme justification d’un mécanisme quasi-industriel de capacité électrique. Et parce que les grands consommateurs (data centers, HPC, campus avec calcul intensif) seront de plus en plus sommés d’entrer dans des logiques de contrats, flexibilité, autoconsommation, stockage, pilotage.

xAI teste des “human emulators” : l’agent devient collègue (et ça pose problème)

Chez xAI, des systèmes internes surnommés “human emulators” seraient testés comme des agents capables d’utiliser un ordinateur : voir l’écran, cliquer, taper, et enchaîner des tâches comme un employé de bureau.

Le détail le plus sensible n’est pas technique. Il est organisationnel : selon Sulaiman Ghori (ex-ingénieur), ces agents apparaîtraient sur des organigrammes internes et interagiraient avec le personnel, parfois sans que les collègues comprennent qu’ils parlent à une IA.

Le même témoignage évoque :

  • une équipe où un humain pilote un projet avec “environ 20 agents IA”,
  • une ambition de montée en charge jusqu’à un million d’emulators, avec une idée explorée : mobiliser de la puissance de calcul de Tesla à l’arrêt/pendant la charge.
  • et des limites observées : hallucinations, confusions sociales (agents demandant rendez-vous à des “bureaux” inexistants).

A observer dans la durée car l’étape d’après “l’assistant” est “l’agent”. Et l’étape d’après “l’agent” est “l’agent qui agit en votre nom”. À ce stade, l’enjeu n’est plus la qualité d’une réponse, mais l’imputabilité : qui a fait quoi, avec quels droits, sur quelles données, et avec quel niveau d’explicabilité ?

OpenAI déploie la prédiction d’âge : la sécurité des mineurs devient une fonctionnalité “core”

Mardi 20 janvier 2026, OpenAI annonce le déploiement d’un système de prédiction d’âge sur ses offres grand public, pour estimer si un compte appartient probablement à un utilisateur de moins de 18 ans, et activer automatiquement des protections.

Le mécanisme repose sur des signaux comportementaux et de compte : ancienneté du compte, heures typiques d’activité, patterns d’usage dans le temps, âge déclaré.
Si l’incertitude est trop forte, l’entreprise dit choisir la prudence : “we default to a safer experience”.

Concrètement, les comptes basculés en “under-18 mode” voient un traitement plus restrictif sur des catégories comme violence graphique, défis viraux à risque, roleplay sexuel/romantique/violent, auto-harm, contenus liés à des standards corporels extrêmes.

En cas d’erreur, l’utilisateur peut rétablir l’accès via une vérification d’âge avec selfie par Persona.
Le déploiement est annoncé “en cours” et OpenAI précise que dans l’UE, la fonctionnalité arrive “dans les prochaines semaines” pour tenir compte des exigences régionales.

Le contexte est explosif :

  • Common Sense Media annonce le soutien d’OpenAI à une initiative californienne (“Parents & Kids Safe AI Act”) visant l’age assurance, des contrôles parentaux, l’interdiction de la publicité ciblant les enfants, et des audits indépendants.
  • Et plusieurs affaires judiciaires alimentent la pression : Microsoft et OpenAI sont visés par une plainte pour “wrongful death” alléguant un rôle de l’assistant dans une trajectoire délirante menant à un homicide-suicide, et d’autres plaintes médiatisées évoquent des interactions liées au suicide.
  • La question n’est plus “faut-il protéger les mineurs ?” Elle est “comment prouver qu’on l’a fait ?”.

L’âge devient une clé de routage produit. Dans l’enseignement supérieur, cela touche aussi les lycéens, les mineurs en première année, les programmes passerelles, et toute offre “grand public” adossée à l’université. Et cela pose une question opérationnelle : quel fournisseur gère l’identité, où, et sous quelle base légale ?

Anthropic publie une nouvelle “constitution” : quand la gouvernance devient un livrable

Le 22 janvier 2026, Anthropic publie une nouvelle version de la “constitution” qui guide le comportement de son assistant, avec une intention explicite : rendre lisible le système de valeurs et d’arbitrages, et servir d’artefact de formation.

Faits saillants :

  • Le texte intégral est publié sous licence Creative Commons CC0, donc réutilisable librement.
  • La constitution est écrite “avec le modèle comme audience principale”, privilégiant la précision.
  • Quatre axes structurent la version 2026 : “broadly safe”, “broadly ethical”, conformité aux guidelines, et utilité réelle (“genuinely helpful”), avec un ordre de priorité en cas de conflit.
  • Le document assume des “hard constraints” sur des sujets à haut risque (ex. bioweapons), et détaille comment gérer des requêtes difficiles (santé, cybersécurité, jailbreaking, intégrations d’outils).
  • Il exprime aussi une incertitude sur le statut moral et la conscience des IA (“deeply uncertain”).

En toile de fond, Dario Amodei martèle, notamment depuis World Economic Forum à Davos, que l’IA peut doper la croissance mais créer un choc d’inégalités si la redistribution et l’adaptation ne suivent pas.

Les entreprises et institutions vont acheter des modèles… mais vont surtout acheter une doctrine derrière le modèle : quelles limites, quels refus, quelles escalades, quelle transparence. Une constitution n’est pas une garantie. C’est un engagement public, donc un futur point d’audit. C’est déjà énorme.

Apple : vers un Siri “chatbot système”, et un pari risqué sur l’hébergement

Selon un rapport attribué à Mark Gurman, Apple préparerait une refonte majeure de son assistant, sous le nom de code “Campos”, pour le transformer en chatbot intégré profondément à l’écosystème (iPhone, iPad, Mac), avec modes voix et texte, et une intégration annoncée à iOS 27 — avec un jalon possible autour de WWDC (début juin).

L’angle le plus sensible : l’assistant pourrait reposer sur un modèle “custom” issu de l’équipe Gemini, et être hébergé sur les serveurs de Google plutôt que sur l’infrastructure Private Cloud Compute d’Apple, ce qui serait une inflexion pour une marque historiquement obsédée par le contrôle et la confidentialité.

Un point est clair : Apple veut rattraper le retard perçu sur l’IA, et le moyen le plus rapide est d’absorber de la capacité externe — tout en risquant de diluer ce qui fait sa différence.

L’assistant IA n’est plus une app. C’est une couche système. Dans les organisations, cela veut dire : impossible de “l’interdire” proprement, et inutile de faire semblant. Il faut former, encadrer, contractualiser, et surtout distinguer les usages : aide à la rédaction ≠ accès aux données personnelles ≠ actions automatiques.

Sparkli : l’app éducative IA qui comprend enfin qu’un enfant ne lit pas un pavé

Trois ex-Google — Lax Poojary, Lucie Marchand et Myn Kang — lancent Sparkli, une app d’apprentissage conçue pour transformer les questions des enfants en “expéditions” interactives multimodales (audio, vidéo, images, quiz, jeux).

Ce qui la distingue :

  • L’app génère une expérience complète en environ deux minutes après une question, en produisant les médias à la demande.
  • Le format “choose-your-own-adventure” privilégie l’exploration, moins la “bonne réponse” scolaire.
  • Les contenus visent aussi des compétences modernes (design thinking, littératie financière, entrepreneuriat).
  • La sécurité est centrale : interdiction de contenu sexuel, redirection sur sujets sensibles (auto-harm) vers intelligence émotionnelle et dialogue avec les parents.

Sur le terrain, Sparkli est en pilote avec une institution éducative couvrant 100 000+ élèves, après des tests dans 20+ écoles, et cible les 5–12 ans.
Financement : 5 M$ en pre-seed, mené par Founderful ; le partenaire Lukas Weder explique chercher une alternative crédible aux jeux vidéo, mais utile.
La version grand public est annoncée pour mi-2026.

C’est une réponse pragmatique à une réalité pédagogique : l’IA “texte long” fatigue, surtout chez les plus jeunes. L’interactivité remet l’attention au centre. Et parce que l’edtech est en train de se réécrire autour d’un nouveau triptyque : engagement, traçabilité, sécurité.

Ce que raconte la semaine 04, c’est finalement des IA qui cessent de chercher la sympathie, l’exploit et commence à chercher la légitimité.
Elle demande des serveurs isolés, des règles écrites, des garde-fous pour les mineurs, des mégawatts garantis, et des agents qui travaillent.

Alain Goudey

Imaginer l'Ecole du futur à NEOMA, créer l'identité sonore des marques avec Atoomedia & Mediavea, conseiller sur la transformation numérique avec Sociacom | Expert en éducation, technologies disruptives, IA & design sonore.

Voir tous les articles de Alain Goudey →

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *