Comment je fais fonctionner un Deepseek-R1 en local sur mon ordinateur avec LM Studio ?

LM Studio est une application conviviale qui permet d’exécuter des modèles de langage (LLM) directement sur votre ordinateur, sans dépendre des services cloud. Elle est compatible Windows, MacOS et Linux et peut se trouver facilement à l’adresse officielle : https://lmstudio.ai/. Elle permet même de faire fonctionner en local des versions de Deepseek-R1… c’est encore qu’un début, mais déjà une belle prouesse !

Analyse du lancement (manqué) de LUCIE, LLM open source français

LUCIE, IA générative française véritablement open source (au même titre que Bloom, Croissant ou Pleias 3B), a été officiellement lancée le 22 janvier 2025 lors du Paris Open Source AI Summit. Cette innovation majeure est le fruit d’une collaboration entre Linagora et le consortium OpenLLM France, financé par un projet France 2030 autour des communs numériques pour l’IA générative.

La journée du 25 janvier 2025, suite à un post X d’Eduscol (en date du 23/01 à 7h du matin) a vu la page du projet fermer en raison des mauvais résultats aux différents tests opérés par les internautes. J’avais personnellement rapidement testé LUCIE le jour de son lancement le 22/01 et en effet, le modèle n’était clairement pas prêt à une ouverture grand public.

Bien que n’étant pas partie prenante dans ce projet, voici une analyse de la situation autour de ce lancement pour inspirer tous les projets de transformation par l’IA d’un secteur donné. En résumé ? Il ne faut pas brûler les étapes.

Comment j’ai fait fonctionner un LLM Mistral-7B sur mon iPhone (sans internet) ?

Suite à l’annonce d’Apple de pouvoir faire fonctionner un LLM sur ses iPhones, je voulais tester la réelle faisabilité de la chose sur un device Apple Silicon (Puce A17) très portable : j’ai donc pris mon téléphone. J’ai pu trouver un process pour le faire… et je vous le partage ici. J’ai fait le test avec un modèle Mistral-7B-Instruct-v0.2 (format GGUF) qui en gros fournit un équivalent de GPT3.5 grâce à la start-up française Mistral (cocorico !). Cela fonctionne parfaitement !!