En 2023, vous avez entendu parler de ChatGPT, Claude AI, Grok, Mistral, Gemini, Google Bard, des modèles de langage mais aussi de DALL-E 3, Midjourney ou Stable Diffusion ? Ces intelligences artificielles sont en train de révolutionner notre rapport au texte, à l’image, à la musique, à la vidéo et à la data. Leur capacité à générer des contenus se approchant des humains à partir de simples descriptions textuelles fascine et inquiète. Mais que peuvent-elles apporter concrètement aux entreprises ? C’est la question qui fut très présente au cours de l’année. La réponse, on la connaît maintenant : beaucoup ! À condition de savoir comment les utiliser et de s’y intéresser dès maintenant.
« Installer l’application ChatGPT sur les mobiles de votre Comex et faire intervenir un expert sur les usages des IA génératives, deux actions simples pour monter sur la courbe d’apprentissage au niveau organisationnel »
En 2024, les entreprises qui vont progresser pour comprendre les avantages et les limites des IA génératives, des LLM et qui vont réaliser des preuves de concept (Proof of Concept ou POC) seront un peu plus efficaces que les autres. D’autant que chaque salarié peut dores et déjà amené dans son environnement professionnel sa propre IA, c’est le Bring Your Own AI (BYOAI). Les experts anticipent un ralentissement technologique sur 2024, probablement l’occasion pour les organisations d’avancer sur le sujet, de se structurer et surtout de s’adapter à cette technologie.
Cet article propose 5 actions de bon sens pour déployer à grande échelle dans l’organisation les IA génératives. D’autant qu’à ce stade, selon une étude Intel, seulement 10% des entreprises ont franchi ce cap. Il va falloir développer la prise de conscience, enclencher l’intérêt pour cette innovation, et faire monter en compétence tout en déployant les premiers POC efficaces, fiables (sans hallucination), protégés, évolutifs, etc. Un vrai challenge qui mêle à la fois le sprint et le marathon.
Action #1 : comprendre le potentiel réel des IA génératives
Avant de se lancer tête baissée, il est essentiel de bien saisir les capacités mais aussi les limites actuelles des modèles de langage comme ChatGPT, Grok, Claude ou Gemini. Leurs performances impressionnantes dans la génération de textes, d’images, de code ou de voix ne doivent pas faire oublier qu’il s’agit avant tout d’outils statistiques ne comprenant pas le sens de ce qu’ils produisent, divergeants parfois complètement vers des réponses sans intérêt (voire dangereuses). Les modèles de langage ont des difficultés à conserver un fil conducteur sur le long terme. Ils peuvent rapidement dériver ou se contredire d’une réponse à l’autre. Il ne faut pas leur déléguer des tâches critiques sans supervision humaine. Cela nuit à la toute automatisation, mais garantit une réelle sécurité vis-à-vis de ce qui est produit.
Cela n’empêche pas l’IA générative d’être très efficaces sur des cas d’usage bien identifiés, dont voici les grands classiques :
- Génération de contenus : emailing, billets de blog, descriptions produits, documentation
- Assistance aux équipes : FAQ, service client, préparation de réunions, gestion des comptes rendus
- Automatisation de tâches : extraction data, code simple, reporting, synthèse de texte, etc.
Cette première action peut se faire avec l’intervention en Comex, Codir, Comité Innovation, Assemblée Générale, d’un expert sur les enjeux de cette technologie, ses usages, ses conséquences, son potentiel de transformation, etc. Je l’ai déjà réalisé à de nombreuses reprises en 2023 et je pense que cela va continuer sur 2024 tant le sujet concerne de très nombreuses formes d’organisation.
Toujours est-il que pour comprendre le potentiel des IA génératives, le mieux c’est encore de les essayer, sur des cas concrets pour bien cerner ce que ça fait et ce que ça ne fait pas.
Action #2 : installer ChatGPT sur le téléphone du Comex et réaliser des POC
Avant de vous lancer dans les POC, faites des démonstrations concrètes à vos managers, aux équipes, installez des versions gratuites (après avoir rappelé l’enjeu de confidentialité des données), développer l’usage (même un peu sauvage) de cette technologie ! On ne parle bien et on utilise bien que ce qu’on connaît bien ! Cette première démarche est simple et vous permettra d’identifier rapidement votre population « early AI adopters » au sein de votre organisation. Fédérez-les ! Il faut éveiller la curiosité des plus agiles sur cette technologie.
Ensuite, une fois que vous avez identifié un ou deux usages simples et pertinents pour votre entreprise / organisation, il est temps de passer à la phase de test concret au sein de votre entreprise. Et ça commence par le choix du bon partenaire technologique. De nombreuses plateformes « clé-en-main » comme Anthropic, Cohere, OpenAI, Bedrock, LightOn se sont lancées ces derniers mois pour simplifier l’accès aux modèles de langage. Mais gare aux déceptions ! Tous ne se valent pas en termes de précision ou d’adaptabilité aux besoins spécifiques. Il est donc crucial de mener une évaluation objective pour choisir le bon couple modèle IA / vos propres données.
Pour construire les preuves de concept, prenez différents modèles majeurs : LLaMA2, GPT3.5 ou 4, Claude 2, Gemini, Mistral, Falcon, etc. et proposez à 3 ou 4 intégrateurs d’opérer des tests sur vos données produits / internes pour sélectionner les offres les plus simples et les plus pertinentes au regard de votre besoin. Validez bien les aspects contractuels et RGPD de votre POC pour ne pas avoir de mauvaises surprises dans une exploitation (même à petite échelle).
Action #3 : impliquer et former les équipes dès le début
Les modèles de langage vont radicalement modifier la manière de travailler dans votre organisation dans les mois et années à venir. Vos collaborateurs doivent donc être parties prenantes de l’aventure, sous peine de rejet ou d’incompréhension. Ils sont inquiets ? C’est légitime, la nouveauté fait peur ! En plus les médias évoquent (trop) régulièrement le risque de remplacement de l’humain, de disparition de métiers, etc. Pour autant la vérité organisationnelle n’est pas si simple.
Dans tous les cas, il est essentiel d’instaurer un climat de confiance sur les intentions réelles de l’entreprise vis-à-vis de ces IA : s’agit-il de remplacer des emplois automatisables, d’améliorer la productivité de chacun ? Que vont devenir les collaborateurs concernés ? Comment l’entreprise accompagne-t-elle ce mouvement ? Si l’activité de l’entreprise augmente, il y a fort à parier que la masse salariale continuera de grandir avec en revanche un mécanisme de transfert d’activités, et des enjeux d’upskilling très forts.
Pour cela, des formations doivent être mises en place pour que tous puissent appréhender les capacités et les risques liés à ces technologies. Cela prend généralement la forme d’ateliers de manipulation autour de scenarii impliquant directement les tâches quotidiennes des salariés conviés à la formation. L’enjeu ? Permettre à chaque métier de se les approprier à son rythme en imaginant de nouveaux usages au service de l’humain.
Ainsi comme atelier, j’ai déjà eu l’occasion de dérouler :
- Marketing / Communication : rédaction de brief, réalisation d’articles de blog, de posts médias sociaux, de design de visuels, de SEO optimisé, etc.
- RH : rédaction d’offre d’emplois, de guide pour les entretiens de recrutement, d’analyse de CV, etc.
- Formation : mise à jour de cours, structuration de cours, animation de cours, création de contenus attractifs, etc.
Action #4 : renforcer l’habileté des équipes et garantir la conformité des outils
Malgré les progrès rapides, les biais et les dangers liés à ces algorithmes d’un nouveau genre sont bien réels. Par exemple, rien ne garantit l’absence de propos discriminatoires ou de violation de données confidentielles dans les sorties des modèles de langage. Il faut que les équipes en soient conscientes et deviennent habiles avec ces outils. Règle d’or : ne jamais faire confiance à une IA générative ! Toujours faire réviser le résultat par un humain !
Par ailleurs, sur le sujet de l’éthique et de la conformité, par exemple, la startup Anthropic a fait le choix dès l’origine de constitutionnaliser ses IA, c’est-à-dire de leur fixer des limites infranchissables dans leur comportement. Claude, leur assistant virtuel, est ainsi dans l’incapacité de partager des informations personnelles ou de formuler des réponses dangereuses. OpenAI tente de suivre la même voix, tout comme Google Gemini. Toutefois, cette technologie est sujette à des attaques par injection de prompts et les modèles IA ne sont pas « très stables dans le temps »… c’est dans ces détails que les équipes doivent devenir expertes pour développer un usage éthique et conforme à la loi de ces technologies (respectant notamment l’AI Act de l’Union Européenne, validé le 08/12/2023).
Action #5 : évaluer le modèle économique autour des IA génératives
Dernier point, mais non des moindres : comment rentabiliser à terme les investissements dans l’IA générative ? Car, pour le moment, l’accès aux API des meilleurs modèles de langage s’avère encore très onéreux vu le nombre de requêtes nécessaires. L’équilibre du business model et le ROI ne sont pas automatiques, ni garantis. La tendance du token est à la baisse (divisé par 3 en un an), mais l’ensemble peut être assez coûteux si de nombreuses connexions à l’IA sont réalisées.
Par ailleurs, il faut aussi mesurer le réel apport de cette technologie, au-delà de la simple mode et du phénomène de curiosité. La création de valeur n’est pas plus automatique pour vos clients. De nombreux paramètres sont à prendre en considération autour de ce sujet.
Dans l’idéal, il sera possible de monétiser directement certains bots conversationnels à destination des clients ou partenaires. Ou alors de facturer des services innovants permises par ces IA : génération de descriptifs web SEO, bilans personnalisés, automatisation sur-mesure… surtout si la valeur est au rendez-vous. Mais tout cela se mesure et 2024 sera l’occasion de le faire !
Conclusion : 2024, l’année où il faut capitaliser sur cette technologie un peu mieux que ses concurrents
Comme toute innovation de rupture, l’IA générative suscite avec raison beaucoup de questions. Nul doute cependant que les entreprises un peu plus audacieuses sauront en tirer parti de façon éthique pour offrir des services et des produits améliorés. À vous de jouer maintenant : il faut monter sur la courbe d’apprentissage de l’usage des IA génératives !
2024 introduira le principe de réalité pour les organisations sur les véritables limites et avantages que l’IA générative et les LLM peuvent apporter à leur entreprise. Les résultats de ces évaluations transformeront les stratégies des entreprises et les mécanismes d’adoption de ces technologies.
En parallèle, l’année 2024 sera l’occasion d’avoir toujours plus de personnes exposées à cette technologie et qui se sentiront en retour à l’aise pour tirer parti et maximiser leur utilisation des interfaces en langage naturel permises par l’IA générative. Cela pourrait accélérer l’entrée des IA génératives dans les entreprises par la grande porte (si le mouvement est accompagné par l’organisation) ou par la petite (si rien n’est fait et que l’utilisation ne repose que sur le salarié qui n’en parle pas à son manager).
L’année 2024 risque d’être un tournant assez clair avec une démarcation forte entre les entreprises qui seront lancées sur la courbe d’apprentissage de l’usage de ces technologies et les autres, trop attentistes et qui risquent de peiner à rattraper le retard ultérieurement. En effet, les organisations qui auront évalué la pertinence, la précision, l’explicabilité, la sécurité et le coût des IA génératives offriront à leurs utilisateurs finaux une expérience personnalisée et augmentée, en langage naturel.
Une réflexion sur « En 2024, comment déployer l’IA générative dans son entreprise ? »