Contexte de l’empreinte environnementale IA
Depuis quelques années, le débat sur l’empreinte environnementale IA (impact écologique de l’intelligence artificielle) s’est focalisé sur l’entraînement des modèles, présenté comme un gouffre énergétique. Mais à mesure que l’usage explose avec des milliards de requêtes envoyées chaque jour à ChatGPT, Gemini, Mistral et consorts, c’est désormais l’inférence, autrement dit la phase d’utilisation, qui concentre l’essentiel des impacts.
Comme pour une voiture : la fabrication est lourde, mais ce sont les kilomètres parcourus qui pèsent dans la durée.

Ce que disent les chiffres
Les données récentes publiées par Mistral AI et Google Gemini permettent de comparer enfin les impacts marginalement (par requête) et globalement (à l’échelle planétaire).

- Mistral Large 2 (400 tokens, soit une page de texte) :
- 1,14 g de CO₂e
- 0,05 L d’eau
- 0,2 mg d’antimoine équivalent (matériaux)
=> Des ordres de grandeur comparables à 10 secondes de streaming vidéo, la croissance d’un petit radis ou la production d’une pièce de 2 centimes.
- Google Gemini (2025) :
- 0,24 Wh par requête, soit l’équivalent de 9 secondes de télévision
- 0,03 g de CO₂e
- 0,26 mL d’eau (5 gouttes)
=> Google revendique une réduction par 44 de l’empreinte carbone par prompt en un an, grâce à des optimisations logicielles et matérielles.
- La vraie difficulté reste la mesure :
Selon la méthodologie retenue (GPU seul, CPU + mémoire, serveurs en veille, refroidissement des data centers), les évaluations varient de 0,1 Wh à 3 Wh par requête. Ces écarts montrent à quel point les frontières de mesure restent floues et doivent être harmonisées.
Les vrais enjeux
- Marginalement, l’impact est infime
Une requête équivaut à quelques secondes de streaming vidéo. À l’échelle d’un individu, difficile d’y voir un gouffre écologique. - L’effet boule de neige est toutefois considérable
Avec des centaines de milliards de prompts par an, l’addition devient lourde. L’impact global dépend alors :- du mix énergétique des data centers (charbon vs. nucléaire vs. renouvelables),
- de la taille des modèles mobilisés (un modèle géant consomme bien plus qu’un modèle spécialisé),
- et des gestes d’usage (précision des prompts, sobriété des échanges).
- La transparence est essentielle
Les écarts de x10 entre études illustrent la fragilité du débat public tant que les méthodologies ne sont pas alignées.
Conclusion sur l’empreinte environnementale IA
L’IA générative n’est pas le monstre énergétique que certains décrivent : à l’échelle d’un utilisateur, son empreinte est équivalente à quelques secondes de vidéo en ligne. Mais multiplié par des millions d’usagers, chaque jour, l’effet cumulatif devient un enjeu environnemental majeur.
La réponse repose sur deux leviers :
- des choix industriels responsables (infrastructures sobres, énergies bas carbone, modèles adaptés),
- et une sobriété d’usage côté utilisateurs (formuler des requêtes précises, éviter les échanges superflus).
En clair, l’IA est écologiquement légère à l’échelle individuelle, mais lourde à l’échelle collective. Et c’est bien là que se joue l’avenir de son intégration durable.
FAQ – IA et empreinte environnementale
Combien d’énergie consomme une requête d’IA générative ?
Environ 0,1 à 0,3 Wh selon les modèles, soit à peine 9 secondes de télévision.
Quelle est la consommation en eau d’un prompt ?
Quelques gouttes (0,2 à 0,3 mL), loin des dizaines de millilitres évoqués par d’anciennes études.
L’entraînement ou l’usage, qu’est-ce qui pèse le plus ?
Autrefois l’entraînement, mais aujourd’hui, avec l’explosion des usages, c’est l’inférence qui domine.
Comment réduire l’impact de l’IA ?
- Privilégier des modèles plus petits adaptés à la tâche.
- Formuler des prompts courts et ciblés.
- Choisir des fournisseurs misant sur des data centers sobres et alimentés en énergies renouvelables.