Prompting en 2024 ? – Il n’est pas nécessaire d’être poli avec l’IA, mais de savoir lui « parler »

Cela fait plus d’un an que la terre entière prompt (ou presque)… Alors comment cet art du prompt engineering a-t-il évolué depuis sa massification en novembre 2022 ? Comment faut-il prompter une IA en 2024 ?

Ce nouvel article vise à proposer un guide avec des instructions détaillées pour améliorer la qualité des prompts destinées aux Modèles de Langage à Grande Échelle (LLMs). Il se base sur le papier de Bsharat & al. (2023), disponible sur Arxiv et intitulé « Principled Instructions Are All You Need for Questioning LLaMA-1/2, GPT-3.5/4 ».

Les résultats de cette étude montrent que les modèles plus vastes simulent mieux les consignes, et que clairement la précision des directives améliore la performance des LLMs. Assigner un rôle spécifique aux LLMs s’avère donc utile pour obtenir des résultats en adéquation avec nos attentes. Autrement dit : « Garbage in, garbage out »… alors soignez vos prompts ! Quelques astuces plus exotiques (comme le pourboire, l’obligation ou l’absence de politesse) aident aussi à améliorer les réponses.

Plus précisément, le papier montre, avec le test de référence ATLAS conçu manuellement, qui comprend des questions multiples pour chaque principe, que les prompts proposés selon le guide ont amélioré la qualité et la précision des réponses LLM d’une moyenne de 57,7 % et de 67,3 %, respectivement, lorsqu’elles sont appliquées à GPT-4 (voir le repository GitHub d’Atlas).

IA et autres devoirs : résolution de problèmes, quizz, etc.

Les devoirs comme la résolution de problèmes, les quizz et d’autres méthodes d’évaluation sont eux aussi en train de se transformer. Par exemple, la résolution de problèmes, cette compétence fondamentale enseignée à travers les disciplines, est en train de connaître une révolution. Historiquement, elle a été le reflet de la capacité d’un étudiant à analyser, à décomposer et à trouver des solutions à des défis complexes. Mais aujourd’hui, elle est confrontée à la montée en puissance des titans de l’IA. Les LLM, tels que GPT4, peuvent désormais résoudre des problèmes avec une finesse qui rivalise avec celle de nos étudiants.

L’IA dans la lecture : la fin de la pensée autonome ?

L’IA est en train de bouleverser cette danse. Elle dévore des PDF, engloutit des livres entiers et crache des résumés avec une facilité déconcertante. La tentation est réelle : pourquoi un étudiant ne demanderait-il pas à l’IA de lui mâcher le travail ? Bien sûr, l’IA peut trébucher, simplifier à outrance, mais ces résumés rapides et pratiques peuvent façonner, voire remplacer, la pensée de l’étudiant. Le danger ? Une salle de classe remplie d’échos d’IA, privant les discussions de leur richesse et de leur spontanéité.

L’art du prompt ou prompt engineering dans ChatGPT

Depuis l’explosion des IA génératives telles que ChatGPT ou Midjourney, il y a un point qui est en pleine exploration : le prompt. Procédant par essai / erreur l’humain apprend à écrire un prompt pour une intelligence artificielle générative, c’est à dire une consigne qui va permettre de converger vers un résultat « pertinent » (pour cet humain). C’est ce que j’appelle depuis le début l’art du prompt, et les anglo-saxons parlent de « prompt engineering ».