Les détecteurs IA ne sont pas bons pour l’éducation
La popularité croissante des détecteurs d’IA dans l’éducation, malgré les avertissements des sociétés de logiciels concernant la précision, est un phénomène à multiples facettes… et inquiétant.
𝗦cience, 𝐈nnovation, 𝐃esign, 𝐄ducation – Alain Goudey
La popularité croissante des détecteurs d’IA dans l’éducation, malgré les avertissements des sociétés de logiciels concernant la précision, est un phénomène à multiples facettes… et inquiétant.
Les devoirs comme la résolution de problèmes, les quizz et d’autres méthodes d’évaluation sont eux aussi en train de se transformer. Par exemple, la résolution de problèmes, cette compétence fondamentale enseignée à travers les disciplines, est en train de connaître une révolution. Historiquement, elle a été le reflet de la capacité d’un étudiant à analyser, à décomposer et à trouver des solutions à des défis complexes. Mais aujourd’hui, elle est confrontée à la montée en puissance des titans de l’IA. Les LLM, tels que GPT4, peuvent désormais résoudre des problèmes avec une finesse qui rivalise avec celle de nos étudiants.
L’IA est en train de bouleverser cette danse. Elle dévore des PDF, engloutit des livres entiers et crache des résumés avec une facilité déconcertante. La tentation est réelle : pourquoi un étudiant ne demanderait-il pas à l’IA de lui mâcher le travail ? Bien sûr, l’IA peut trébucher, simplifier à outrance, mais ces résumés rapides et pratiques peuvent façonner, voire remplacer, la pensée de l’étudiant. Le danger ? Une salle de classe remplie d’échos d’IA, privant les discussions de leur richesse et de leur spontanéité.
La rédaction, le mémoire, l’essai, ces piliers de l’éducation, sont en train de subir une transformation radicale. Historiquement utilisé pour évaluer la pensée critique et la réflexion des étudiants, il est désormais à la merci des géants de l’IA. Oui, vous avez bien lu. Les LLM, comme GPT4, LLaMA2, Claude ou encore Bard, sont capables de produire des textes qui rivalisent avec ceux de nos étudiants les plus brillants. Et la distinction entre les deux devient de plus en plus floue ! Comment faire ?
Ethan Mollick, Professeur à Wharton (Université de Pennsylvanie) a écrit un article intitulé « The Homework Apocalypse[1] » qui annonce « un cataclysme des devoirs » à l’horizon de la rentrée de septembre, alors que l’IA devient omniprésente parmi les élèves. Je vous propose ici une analyse critique (et posée) de l’impact réel des IA comme ChatGPT, Claude AI ou encore Google Bard à l’aune de ma propre expérience de pédagogue et d’utilisateur intensif d’IA générative depuis plus d’un an maintenant (et une vision de la situation en France).
Depuis quelques semaines l’IA générative ChatGPT génère de nombreuses prises de parole oscillant entre fascination et inquiétude. Mon précédent article « L’enseignement supérieur et les IA génératives : analyse critique de la situation autour de ChatGPT » a d’ailleurs été lu des milliers de fois. La phrase qui a beaucoup surpris a été : « si ChatGPT réussi l’examen, alors il faut changer l’examen »… et pourtant, c’est une invitation très nette à redéfinir les approches des devoirs et des examens dans le cadre d’une pédagogie moderne.