ChatGPT, développé par OpenAI, est un modèle d’IA générative qui a fait des progrès significatifs dans divers domaines, y compris le journalisme. Ce modèle d’IA, capable de générer des textes semblables à ceux des humains, transforme la façon dont les informations sont rapportées et consommées. Ce nouvel article examine la pertinence de ChatGPT pour le journalisme, ses avantages, ses inconvénients potentiels, ses applications actuelles et futures dans ce domaine.
Si leurs activités (piges) sont remplacées par de l’IA, comment les rédactions vont faire entrer les profils juniors dans la nécessaire courbe d’apprentissage et d’exploration du métier ?
Les aspects intéressants de ChatGPT
ChatGPT utilise des algorithmes d’apprentissage automatique pour générer des textes remarquablement similaires à l’écriture humaine. Il est capable d’analyser de grandes quantités de données, d’identifier des modèles et de produire des articles cohérents et basés sur des faits. Cette capacité à générer un contenu de haute qualité rapidement et efficacement en fait un outil précieux pour le journalisme, un domaine où l’actualité et la précision sont primordiales.
Ainsi les avantages de ChatGPT sont :
- Efficacité : ChatGPT peut automatiser les tâches de reportage de routine, libérant les journalistes pour qu’ils se concentrent sur des sujets plus complexes qui requièrent des compétences humaines telles que l’esprit critique, l’interview et la recherche d’investigation.
- Précision : en analysant de grandes quantités de données, ChatGPT peut aider les journalistes à garantir la précision de leurs reportages. Il peut recouper des informations provenant de sources multiples pour vérifier les faits, une tâche qui prend beaucoup de temps aux journalistes humains.
- Créativité : ChatGPT peut générer plusieurs versions d’un article, aidant ainsi les journalistes à explorer différents angles et perspectives. Cela peut conduire à un contenu plus créatif et plus attrayant.
Inconvénients de l’utilisation de ChatGPT dans le journalisme
Malgré ses avantages, l’utilisation de ChatGPT dans le journalisme soulève également des questions éthiques et pratiques. Le risque de partialité dans les contenus générés par l’IA est un problème important. Si les données utilisées pour former le modèle d’IA sont biaisées, le contenu qu’il génère le sera également. En outre, l’automatisation de la pige pourrait potentiellement menacer la sécurité de l’emploi des journalistes. Ainsi j’ai listé quelques risques qui me paraissent majeurs :
Menace potentielle sur la sécurité de l’emploi
L’une des principales préoccupations liées à l’utilisation de l’IA dans le journalisme est la menace potentielle pour la sécurité de l’emploi. L’IA étant capable de générer des reportages, des résumés et même des contenus créatifs, il est à craindre que les journalistes humains ne deviennent superflus. Cette préoccupation est particulièrement pertinente dans le contexte des reportages de routine et de la rédaction de nouvelles, qui peuvent être facilement automatisés.
Risque de partialité et de désinformation
ChatGPT, comme tout modèle d’intelligence artificielle, ne vaut que ce que valent les données sur lesquelles il a été formé. Si les données d’entraînement sont biaisées ou inexactes, le contenu généré par l’IA sera également biaisé ou inexact. Cela peut conduire à la propagation de fausses informations, ce qui est particulièrement préoccupant dans le contexte des reportages d’actualité.
L’absence de touche humaine
Si ChatGPT peut, dans une certaine mesure, imiter l’écriture humaine, il lui manque la touche humaine qui est souvent cruciale dans le journalisme. Avec des prompts adaptés on peut se rapprocher de quelque chose de vraiment propre au niveau écriture.
Toutefois, il ne peut pas mener d’interviews en autonomie (manque de compréhension de ce qui est dit par l’interviewé), comprendre les émotions humaines complexes ou fournir l’analyse nuancée qu’un journaliste humain peut faire. Cela pourrait entraîner une perte de profondeur et de qualité dans les reportages. Le journalisme d’investigation à ce titre me paraît particulièrement bien protégé de la vague ChatGPT.
Préoccupations éthiques
L’utilisation de l’IA dans le journalisme soulève également plusieurs questions d’ordre éthique. Par exemple, qui est responsable si un reportage généré par l’IA contient des erreurs ou diffuse des informations erronées ? Comment garantir la transparence des informations générées par l’IA ? Il s’agit là de questions complexes auxquelles le secteur du journalisme doit répondre à mesure qu’il adopte les technologies de l’IA.
Applications actuelles et futures de ChatGPT dans le domaine du journalisme
ChatGPT est déjà utilisé de diverses manières dans le journalisme. Il est par exemple utilisé pour générer des articles basés sur des données structurées, telles que des articles financiers (la bourse) ou des résultats sportifs. Il est également utilisé pour créer des digests et des résumés de l’actualité, décrire des informations simples afin d’aider les lecteurs à rester informés des dernières nouvelles dans un format concis.
À l’avenir, le rôle de ChatGPT dans le journalisme est susceptible de s’étendre. Voici quelques développements potentiels :
Rapports en temps réel : Grâce à sa capacité à traiter et à générer du contenu rapidement, ChatGPT pourrait jouer un rôle important dans les reportages en temps réel. Il pourrait être utilisé pour fournir des mises à jour en direct lors d’événements tels que des élections ou des matchs sportifs.
Rapports multilingues : Les capacités linguistiques de ChatGPT pourraient être exploitées pour traduire des articles d’actualité en plusieurs langues, ce qui élargirait la portée des organes d’information et rendrait l’actualité plus accessible aux personnes du monde entier.
Journalisme interactif : ChatGPT pourrait être utilisé pour créer des expériences d’information interactives. Par exemple, les lecteurs pourraient poser des questions sur un article, et ChatGPT pourrait générer des réponses en temps réel. Comme si le lecteur rentrait en « discussion » avec le contenu journalistique.
Il reste néanmoins essentiel de relever les défis associés à l’utilisation des IA génératives dans ces métiers. Voici quelques pistes pour cela :
Partialité : pour résoudre le problème de la partialité dans le contenu généré par l’IA, il est important d’utiliser des ensembles de données diversifiés et équilibrés pour entraîner les modèles d’IA. La transparence des données utilisées pour former les modèles d’IA peut également aider les lecteurs à comprendre les biais potentiels dans les contenus générés par l’IA.
Sécurité de l’emploi : Si l’IA peut automatiser certaines tâches, elle ne peut pas remplacer les compétences humaines uniques que les journalistes apportent à leur travail. Il est important de considérer l’IA comme un outil qui peut améliorer le travail des journalistes, plutôt que comme une menace pour leur sécurité d’emploi. Notamment, se pose la question des jeunes journalistes (voire des étudiants en journalisme)… si leurs activités (piges) sont remplacées par de l’IA, comment les rédactions vont faire entrer ses profils dans la nécessaire courbe d’apprentissage et d’exploration du métier ?
Lignes directrices en matière d’éthique : Il est nécessaire d’établir des lignes directrices éthiques claires pour l’utilisation de l’IA dans le journalisme. Ces lignes directrices devraient aborder des questions telles que la transparence, la responsabilité et l’utilisation potentiellement abusive du contenu généré par l’IA. A ce titre la tribune récemment publiée par le Financial Times est intéressante car elle fixe une ligne de conduite assez claire et plutôt équilibrée autour d’un bon usage de l’IA dans le secteur.