Quel est le coût environnemental de l'IA dans le monde ?
- Stéphane Guy
- 14 juil.
- 6 min de lecture
Dernière mise à jour : il y a 6 jours
L’intelligence artificielle est en train de devenir un pilier invisible de notre quotidien. Elle optimise nos trajets, anticipe nos recherches, gère nos objets connectés et, parfois même, rédige nos textes. Mais toute cette « magie » repose sur une réalité bien physique : des calculs complexes exécutés par des machines très gourmandes en ressources. Chaque fois qu'une intelligence artificielle répond à une question, résout un problème ou crée un contenu, elle réalise des milliards d'opérations sur des serveurs spécialisés. Ces opérations ont un coût énergétique majeur : elles nécessitent une infrastructure lourde, fonctionnant en continu, refroidie par des systèmes puissants, et alimentée par des sources d'électricité pas toujours renouvelables. Une question se pose alors : comment fonctionne l’IA d’un point de vue énergétique ? Que se passe-t-il en coulisses quand vous posez une simple question à ChatGPT ou demandez à Midjourney de créer une image ?

En bref
Une IA fonctionne grâce à des centres de données massifs. Ces data centers regroupent des milliers de serveurs qui exécutent les calculs 24h/24. Ils nécessitent beaucoup d’électricité et un système de refroidissement constant.
L'entraînement des modèles est une étape extrêmement coûteuse. Cela représente des semaines de calculs sur des centaines de processeurs pour entraîner un modèle comme GPT-4, avec une empreinte carbone majeure.
L'utilisation quotidienne a aussi un impact. Chaque requête consomme de l’énergie. Multipliée par des millions d’utilisateurs, cette consommation devient significative, s’ajoutant au coût initial d’entraînement.
L’IA consomme aussi de l’eau pour être refroidie. Certains modèles ont utilisé plusieurs centaines de milliers de litres d’eau rien que pour leur entraînement. L’impact varie selon le climat local et la technologie employée.
Des solutions existent, mais elles sont peu appliquées. Optimisation des algorithmes, énergies renouvelables, recyclage thermique... Peu d’acteurs s’engagent réellement, de manière transparente ou contraignante.
Comment fonctionne l’IA : un système gourmand en ressources
Derrière une requête : des serveurs, de l’énergie et de la chaleur
Quand vous posez une question à une IA, vous interagissez avec un modèle pré-entraîné hébergé sur un serveur, dans un centre de données. Chaque requête active une chaîne complexe de calculs pour comprendre, traiter et générer une réponse. Ces machines produisent de la chaleur qu’il faut ensuite dissiper. Cela nécessite donc une grande quantité d’électricité, à la fois pour alimenter les serveurs et pour les refroidir. La chaleur est souvent dissipée par des systèmes à air ou par refroidissement liquide. Parfois, elle est réutilisée pour chauffer des bâtiments à proximité, mais cela reste marginal.*
L’entraînement, un gouffre énergétique
L’entraînement est la phase où l’IA apprend afin de devenir plus performante. Cela consiste à lui faire analyser des milliards de données pour qu’elle reconnaisse des schémas et affine ses réponses. Plus le modèle est grand, plus cette étape est longue et coûteuse. Le problème, c'est qu'au fur et à mesure des avancées scientifiques, le coût énergétique des entraînements des IA augmente. D'une part, "des scientifiques estiment que l'entraînement du modèle d'IA BLOOM émet 10 fois plus de gaz à effet de serre qu’un Français en une année", et d'autre part, "En 2026, la hausse de la consommation électrique des centres de données, des cryptomonnaies et de l’IA pourrait s’élever à l’équivalent de la consommation électrique de la Suède ou de l’Allemagne, par rapport à 2022."*
En plus de cela, ces données ne concernent que l'entraînement du modèle d'intelligence artificielle. Il faut donc ajouter à cela l’énergie consommée à chaque utilisation de l'IA une fois disponible auprès du grand public.

L’empreinte carbone de l’IA : chiffres et comparaisons
L’IA consomme beaucoup d’électricité… et émet donc beaucoup de CO₂. Il est encore difficile de quantifier précisément les émissions des différents modèles, mais quelques données existent. Par exemple, une conversation de quelques messages avec GPT-4 consomme environ 272 grammes de CO₂. Ainsi, une dizaine de requêtes quotidiennes pendant un an pourrait générer près d’une tonne de CO₂, soit la moitié du quota annuel recommandé par l’accord de Paris.*
Et cela ne prend en compte que ChatGPT, sans inclure la génération d’images ou de vidéos par d'autres outils. La consommation énergétique de l’IA augmente donc, tout comme ses émissions de CO₂.
Un coût en eau : l’impact oublié
Outre le Co2, on oublie un autre grand élément pour faire fonctionner les centres de données des IA et donc, ces outils : l'eau. En effet, les centres de données utilisent de grandes quantités d’eau pour le refroidissement.
Nous pouvons commencer par dire que Microsoft a déclaré que la consommation d'eau des centres de données liés aux IA avait augmenté de 34 %. Un chiffre qui représente bien l'essor de ces structures essentielles pour les intelligences artificielles. La montée en puissance des modèles d'IA a ainsi consommé 6,4 milliards de litres d’eau en 2022, soit l’équivalent de 2 500 piscines olympiques.*
Le problème, c'est que cette consommation d'eau en constante augmentation inquiète les municipalités où les datacenter sont implantés, à l'instar de la ville de Des Moines, aux Etats-Unis : "En juillet 2022, à la fin de l’entraînement de GPT, Microsoft avait pompé 34,5 millions de litres d’eau, selon le fournisseur West Des Moines Water Works. Cela représente 6% des capacités hydriques de la ville."*
*IBID
Des consommations qui inquiètent les municipalités, qui décident de ne pas augmenter le nombre de data centers sur leur territoire et demandent aux grandes entreprises de la tech de réduire leur consommation d'eau. Ainsi, on voit apparaître le terme "water positive" chez Microsoft notamment pour parler de sa volonté de rendre ses data center plus responsables quant à leur consommation hydrique. Pour arriver à cet objectif, les firmes évoquent divers solutions, comme un entraînement deux fois plus rapide, pour réduire le temps d'utilisation des data center et, par conséquent, des ressources utilisées pour les faire fonctionner.
Peut-on rendre l’IA plus écologique ?
Nous pouvons désormais nous demander s'il est possible de rendre l'intelligence artificielle plus "écologique" et respectueuse de l'environnement. Ce processus est par défaut énergivore, mais il existe divers solutions pour réduire son impact :
Distillation de modèles : Cette méthode consiste à découper un modèle en agents spécialisés, activés uniquement selon les besoins. Exemple : DeepSeek, une IA chinoise concurrente de ChatGPT, active un sous-modèle spécifique en fonction de la requête (mathématique, traduction, etc.), au lieu d’utiliser l’intégralité du système. Cela permet de réduire la consommation énergétique.*
Quantization : La quantification réduit la précision des calculs durant l'entraînement, sans perte significative de qualité. Elle compresse les données utilisées pour rendre l’IA moins gourmande en ressources. Toutefois, ce procédé est encore en cours de perfectionnement et pourrait parfois altérer la qualité du traitement.
Utilisation adaptée et intelligence de l'IA et des infrastructures liées : Un autre point important pour une réduction de l'impact écologique de l'IA dans notre société est de l'intégrer intelligemment à notre environnement. On peut par exemple penser à réutiliser la chaleur générée par les centres de données pour chauffer les bâtiments où ils se trouvent. On peut également penser à des gestes simples que nous appliquons déjà dans notre quotidien, comme la sollicitation de ces centres en heures creuses.

Une transition vers les énergies renouvelables nécessaire
Actuellement, les centres de données sont en grande partie alimentées par des énergies fossiles, ce qui contribue à leur impact carbone. Mais peut-on imaginer une source d'alimentation plus écologique ? Cela semble possible, pusiqu'en 2024 des chercheurs et chercheuses ont démontré "qu’on peut fabriquer [...] un système d’IA autoalimentée à l’énergie solaire, dont le fonctionnement est assuré même en cas d’apport énergétique faible."*
Il semble donc possible de pourvoir aux besoins énergétiques des grands modèles de langage via des sources d'énergie renouvelable. Reste désormais à savoir si cela sera mis en place, surtout par les géants de la tech.
Conclusion : L’IA est-elle soutenable vis-à-vis des enjeux environementaux de notre société ?
Le développement de l’IA a un coût écologique réel et croissant : consommation d’électricité, émissions de CO₂, pression sur les ressources en eau… Et pourtant, peu d’utilisateurs en sont conscients.
Alors, faut-il ralentir la course aux modèles toujours plus massifs ? Favoriser une IA plus sobre, plus locale, plus responsable ? Ou imposer des normes environnementales strictes aux géants du numérique ?
Des solutions existent, mais face à une utilisation de plus en plus massive, on peut douter de leur efficacité à enrayer le déficit écologique et énergétique provoqué par l’intelligence artificielle.
Commentaires