Depuis son lancement en novembre 2022, ChatGPT a conquis plus de 300 millions d’utilisateurs actifs hebdomadaires. L’intelligence artificielle d’OpenAI répond à tout : rédaction de contenus, analyse de documents, résolution de problèmes mathématiques. Mais derrière cette révolution technologique se cache une réalité environnementale préoccupante. Les chiffres révélés par plusieurs études récentes dessinent un tableau inquiétant de la consommation énergétique et de l’impact carbone de cette technologie.
Sommaire
ToggleLes points clés à retenir
Empreinte carbone globale : Entre 240 et 260 tonnes de CO₂ par mois pour l’utilisation mondiale de ChatGPT, soit l’équivalent de 136 vols aller-retour Paris-New York.
Consommation par requête : Entre 1,54 et 4,32 grammes de CO₂ par interaction, soit 4 à 5 fois plus qu’une recherche Google.
Consommation énergétique quotidienne : Environ 300 MWh par jour, équivalant à la consommation électrique de 27 000 foyers français.
Consommation en eau : 50 centilitres d’eau pour quelques dizaines de requêtes, nécessaires au refroidissement des serveurs.
Phase d’entraînement : 502 tonnes de CO₂ émises pour entraîner GPT-3, nécessitant 1 287 MWh d’électricité.
Comprendre l’empreinte carbone de ChatGPT : une réalité opaque
Pourquoi est-ce si difficile à mesurer ?
L’évaluation précise de l’empreinte environnementale de ChatGPT se heurte à un obstacle majeur : l’absence totale de transparence des acteurs du secteur. Lou Welgryn, spécialiste de l’IA et coprésidente de l’association Data for Good, le souligne sans détour : « Le problème principal, c’est qu’il n’y a aucune transparence des acteurs sur le sujet ».
OpenAI ne publie aucun rapport détaillé sur les émissions de CO₂ de ses modèles. Cette opacité complique considérablement le travail des chercheurs et des organisations qui tentent d’établir un bilan carbone fiable. Les estimations disponibles reposent donc sur des calculs indirects, des comparaisons avec d’autres modèles d’IA et des hypothèses basées sur la consommation énergétique des centres de données.
Les trois composantes de l’empreinte carbone
Pour mesurer l’impact environnemental de ChatGPT, les experts identifient trois catégories distinctes :
- Le développement et l’entraînement du modèle
Selon le Stanford Artificial Intelligence Index, l’entraînement de GPT-3 a nécessité l’équivalent de 502 tonnes d’émissions de dioxyde de carbone et près de 1 300 mégawattheures d’énergie. Ce chiffre représente la consommation moyenne d’un foyer américain pendant des centaines d’années.
L’Université du Massachusetts a calculé que former un grand modèle de langage type GPT peut générer jusqu’à 284 tonnes de CO₂, soit l’équivalent des émissions de cinq voitures sur l’ensemble de leur cycle de vie. Cette phase d’apprentissage mobilise des milliers d’heures de calcul sur des processeurs graphiques (GPU) extrêmement puissants.
- L’énergie nécessaire pour répondre aux requêtes
Chaque interaction avec ChatGPT consomme de l’électricité. Les estimations varient considérablement selon les sources et les versions du modèle. D’après une analyse récente, une requête moyenne génère entre 2,5 et 5 grammes de CO₂, avec une médiane autour de 4,32 grammes.
Sam Altman, PDG d’OpenAI, a récemment précisé dans un billet de blog publié en juin 2025 qu’une requête moyenne consomme environ 0,34 watt-heure, soit l’équivalent d’un four durant un peu plus d’une seconde ou d’une ampoule à haut rendement sur quelques minutes.
L’Agence Internationale de l’Énergie (AIE) estime que les interactions avec des IA comme ChatGPT consomment jusqu’à 10 fois plus d’électricité qu’une recherche Google traditionnelle, voire 30 fois plus selon certaines sources et versions.
- La fabrication et le refroidissement des serveurs
La construction des serveurs représente environ 20 à 30% de leur empreinte carbone totale sur l’ensemble de leur cycle de vie. Cette proportion inclut l’extraction des matières premières (cuivre, lithium, cobalt), la fabrication des composants, l’assemblage et le transport.
Le refroidissement des centres de données constitue un autre poste majeur de consommation. Ces infrastructures chauffent énormément lors des calculs intensifs. Selon le chercheur Shaolei Ren de l’Université de Riverside en Californie, une réponse ChatGPT d’une centaine de mots nécessite l’équivalent de consommer une bouteille d’eau et d’allumer 14 ampoules LED pendant une heure.
Les chiffres qui donnent le vertige
À l’échelle individuelle : une requête coûte combien ?
Pour visualiser l’impact d’une simple interaction, plusieurs comparaisons permettent de saisir l’ordre de grandeur :
- 15 requêtes ChatGPT = 1 heure de streaming vidéo
- 16 requêtes = faire bouillir une bouilloire d’eau (environ 70g de CO₂)
- 139 requêtes = un cycle de lave-linge
- 92 000 requêtes = un aller-retour en avion de 1 600 km
En utilisant ChatGPT 50 fois par jour pendant un an (17 500 requêtes annuelles), vous émettez environ 283 grammes de CO₂. Ce chiffre peut sembler dérisoire comparé aux recommandations du GIEC qui fixe le maximum d’émissions par individu à 2 tonnes par an. Cependant, ce calcul ne prend en compte que votre usage personnel, sans considérer l’impact collectif.
À l’échelle mondiale : un impact considérable
Avec un milliard de messages échangés chaque jour sur ChatGPT, la consommation quotidienne atteint approximativement 300 MWh, soit la consommation électrique de 27 000 foyers français.
La plateforme Greenly, spécialisée dans la mesure des émissions de CO₂, a établi un scénario d’entreprise utilisant ChatGPT pour répondre automatiquement à un million de mails par mois pendant un an. Résultat : 240 tonnes de CO₂e, équivalant à 136 voyages aller-retour entre Paris et New York.
D’après une étude récente, l’utilisation globale de ChatGPT rejette plus de 260 000 kg de CO₂ par mois. Ce volume mensuel – environ 260 tonnes – équivaut aux émissions de 260 vols aériens transatlantiques entre New York et Londres. Sur une année, cela représente plus de 3 000 tonnes de CO₂.
ChatGPT vs Google : la bataille de la consommation
Un écart significatif
Une recherche Google classique émet environ 0,2 gramme de CO₂. En comparaison, une requête ChatGPT consomme 4 à 5 fois plus d’énergie. Cette différence s’explique par la complexité des calculs nécessaires.
Google effectue une recherche dans un index déjà constitué et renvoie des résultats existants. ChatGPT, lui, génère du contenu original à chaque requête en mobilisant des millions de paramètres et en effectuant des milliards d’opérations mathématiques.
Pourquoi ChatGPT consomme-t-il autant ?
Martin Bouchard, cofondateur de QScale, explique que l’IA requiert 4 à 5 fois plus de calculs que Google pour générer ses réponses. Les modèles généralistes « fourre-tout » comme ChatGPT sont particulièrement peu efficients d’un point de vue énergétique. Ils ont été entraînés avec un nombre incalculable de données – un processus long et polluant.
Sasha Luccioni, chercheuse experte de l’intelligence artificielle, précise : « La plupart du temps, les modèles tournent via des centres de données situés très loin de leurs utilisateurs ». Cette distance géographique ajoute une couche supplémentaire de consommation énergétique pour le transfert des données.
L’eau : la ressource oubliée de l’intelligence artificielle
Une consommation hydrique alarmante
Au-delà de l’électricité et des émissions de CO₂, ChatGPT consomme des quantités importantes d’eau. Une étude américaine de 2023 a estimé que le modèle ChatGPT-3 consomme 50 centilitres d’eau pour quelques dizaines de requêtes – un chiffre probablement obsolète depuis le passage à ChatGPT-4, encore plus gourmand.
L’entraînement de GPT-3 aurait nécessité environ 700 mètres cubes d’eau, selon une étude des universités de Riverside au Colorado et d’Arlington au Texas. Cette eau sert principalement au refroidissement des centres de données qui chauffent intensément lors des calculs.
Des tensions territoriales
Dans certains États américains comme l’Arizona ou l’Iowa, la présence de centres de données devient source de tensions. D’un côté, ces infrastructures augmentent le stress hydrique du territoire, limitant l’accès à l’eau pour les habitants. De l’autre, elles génèrent des emplois et des recettes fiscales.
Cette situation oblige certaines régions à faire un choix cornélien entre le développement de l’intelligence artificielle et la préservation de leurs ressources environnementales.
Les matériaux critiques : une autre face du problème
L’extraction des minéraux
Comme tous les usages du numérique, l’intelligence artificielle nécessite des composants fabriqués à partir de minéraux : cuivre, lithium, cobalt, terres rares. L’extraction de ces matériaux entraîne son lot de conséquences dans les pays concernés : pollution de l’eau, déforestation, violations des droits humains.
Ces ressources ne pourront pas être utilisées dans des secteurs critiques de la transition énergétique, comme la fabrication de voitures électriques ou la production d’énergies renouvelables. Cette compétition pour les matières premières pose la question de la priorisation des usages.
L’obsolescence programmée des serveurs
Les centres de données de Google et Facebook émettent 20 fois plus de gaz à effet de serre par la fabrication de leurs serveurs que par leur consommation d’électricité. Cette réalité souligne l’importance de la phase de production dans le bilan carbone global.
Entre l’iPhone 3GS de 2009 et l’iPhone 11 de 2019, la part de l’empreinte carbone due à la fabrication est passée de 49% à 86%. Cette tendance reflète les progrès dans la décarbonation de l’usage, mais aussi la complexification croissante des équipements.
Vers une intelligence artificielle plus sobre ?
Les pistes d’optimisation
Des chercheurs de l’Université de Chicago ont développé une solution innovante baptisée CarbonMin. Cette IA oriente intelligemment les requêtes vers les datacenters alimentés par une électricité bas-carbone. Selon leur étude publiée en 2023, cette approche permet de réduire les émissions de 35% aujourd’hui et de 56% en 2035.
Combinée avec des progrès technologiques, cette stratégie pourrait limiter la hausse des émissions du secteur à 20% en 2035 malgré une charge 55 fois plus élevée.
Les IA frugales : une nécessité
Le concept d’IA frugale gagne du terrain. Ces modèles plus petits et spécialisés consomment beaucoup moins d’énergie tout en répondant efficacement aux besoins. Par exemple, le nouveau modèle Llama3 8b est 10 fois plus petit que ChatGPT 3.5 mais reste tout aussi puissant pour des tâches spécifiques.
Sasha Luccioni recommande d’éviter les modèles généralistes comme ChatGPT-4 ou Gemini pour les tâches spécifiques et de privilégier des modèles plus petits. Générer 1000 textes avec un petit modèle correspond à charger 16% d’une batterie de smartphone, contre 4 chargements complets avec un modèle plus grand.
Les engagements d’OpenAI
Sur son forum d’utilisateurs, un responsable d’OpenAI a déclaré concernant les émissions de CO₂ : « Nous n’avons pas fait ce calcul complet. Mais la tendance est à la baisse, vers zéro. L’infrastructure d’OpenAI fonctionne sur Azure [les serveurs cloud de Microsoft], et Azure fonctionnera à 100% avec de l’énergie renouvelable d’ici 2025″.
Cependant, aucune communication détaillée n’a été déployée depuis sur le sujet. Les promesses de neutralité carbone semblent rencontrer des difficultés de mise en œuvre concrète.
Les projections alarmantes pour 2030
Une demande électrique en explosion
Lou Welgryn de Data for Good alerte : « On estime que la demande d’électricité liée à l’IA va être multipliée par deux d’ici à 2030. Le problème, c’est que cela croît plus vite que notre capacité à développer des énergies renouvelables ».
Une étude néerlandaise d’octobre 2023 estimait que le monde pourrait compter environ 1,5 million de serveurs dédiés à l’IA et aux cryptomonnaies d’ici 2027, avec une consommation de 100 terawatts par heure, soit 100 milliards de kilowatts.
Le risque de ralentir la transition énergétique
Cette croissance exponentielle risque de générer des conflits d’usage critiques et de ralentir la nécessaire transition énergétique. L’électrification des usages aujourd’hui dépendants des énergies fossiles (chauffage, transports) constitue un levier incontournable pour atteindre la neutralité carbone en 2050.
Lou Welgryn résume la problématique : « Devenir plus efficace dans un monde carboné, ça crée juste plus de carbone ».
L’Intelligence artificielle : menace ou opportunité climatique ?
Les vertus potentielles de l’IA
L’intelligence artificielle peut aussi avoir des applications vertueuses pour l’environnement. Elle peut améliorer la modélisation climatique, optimiser l’usage des ressources, détecter des fuites de méthane et réduire les émissions de gaz à effet de serre de certaines activités.
Des outils comme Climate Q&A permettent d’interroger les rapports scientifiques sur le climat, favorisant la connaissance citoyenne sur ces sujets.
Mais ChatGPT n’est pas un outil climatique
La question se pose moins avec ChatGPT, qui reste un produit d’appel majoritairement destiné aux particuliers pour des usages variés. Son impact positif sur le climat demeure difficile à démontrer, contrairement à des IA spécialisées dans l’optimisation énergétique ou la recherche climatique.
Que faire face à cette réalité ?
Adopter une utilisation raisonnée
En tant qu’utilisateur, vous pouvez limiter votre impact en :
- Réservant l’usage de ChatGPT aux tâches qui le justifient vraiment
- Privilégiant les moteurs de recherche traditionnels pour des requêtes simples
- Utilisant des modèles plus petits pour des tâches spécifiques
- Évitant les requêtes répétitives ou inutiles
Exiger la transparence
Les consommateurs et les entreprises doivent exiger davantage de transparence de la part d’OpenAI et des autres acteurs de l’IA. La publication de bilans carbone détaillés permettrait de faire des choix éclairés et de comparer les solutions.
Soutenir la recherche sur les IA sobres
Le développement d’alternatives plus économes doit être encouragé. Les IA frugales représentent une voie prometteuse pour maintenir les bénéfices de cette technologie tout en réduisant son empreinte environnementale.
Tableau récapitulatif : l’empreinte carbone de ChatGPT en chiffres
|
Indicateur |
Valeur |
Équivalence |
|
Émissions par requête |
1,54 à 4,32 g de CO₂ |
4 à 5 fois une recherche Google |
|
Consommation énergétique par requête |
0,34 Wh |
Un four pendant 1 seconde |
|
Consommation d’eau par requête |
~1/15 cuillère à café |
50 cl pour quelques dizaines de requêtes |
|
Consommation quotidienne mondiale |
300 MWh |
27 000 foyers français |
|
Émissions mensuelles mondiales |
260 000 kg de CO₂ |
260 vols transatlantiques |
|
Émissions annuelles estimées |
3 000 à 8 400 tonnes de CO₂ |
2 à 4 fois l’empreinte moyenne d’un Français |
|
Entraînement GPT-3 |
502 tonnes de CO₂ |
136 vols Paris-New York |
|
Énergie d’entraînement GPT-3 |
1 287 MWh |
Centaines d’années de consommation d’un foyer US |
|
Consommation d’eau pour l’entraînement |
700 m³ |
Volume d’une piscine olympique (1/4) |
|
17 500 requêtes annuelles (50/jour) |
283 g de CO₂ |
2,3 km en voiture |
|
Ratio vs Google |
x4 à x30 |
Selon les versions et sources |
Les chiffres sont sans appel : ChatGPT et les intelligences artificielles génératives ont un coût environnemental considérable. Derrière l’apparente dématérialisation se cache une infrastructure physique gourmande en énergie, en eau et en ressources minérales. Si l’IA peut contribuer à résoudre certains défis climatiques, son développement actuel pose de sérieuses questions sur la soutenabilité de nos usages numériques. La transparence, l’innovation technique et une utilisation raisonnée constituent les clés d’un futur où technologie et environnement pourraient coexister harmonieusement.
