L’empreinte écologique de l'IA : Google lève enfin le voile
- Natasha Tatta
- 22 août
- 5 min de lecture
Dernière mise à jour : il y a 2 jours

l’IA, innovation ou catastrophe écologique?
Depuis l’essor de ChatGPT en novembre 2022, l’intelligence artificielle générative est partout. Les entreprises s’en servent pour automatiser leurs tâches, les étudiants pour rédiger leurs travaux, et les particuliers pour planifier un voyage ou créer du contenu en quelques secondes. Mais derrière cette révolution se cache une question sensible : quelle est l’empreinte écologique de l’IA générative?
Les spéculations allaient bon train depuis deux ans. Certains experts redoutaient que chaque requête représente une consommation d’électricité équivalente à celle d’une ampoule allumée plusieurs minutes.
D’autres imaginaient déjà les serveurs géants des GAFAM aspirer nos ressources en eau et saturer les réseaux électriques mondiaux.
En août 2025, Google a décidé d’apporter une réponse claire. Pour la première fois, un grand fournisseur d’IA a publié des données précises concernant l’empreinte écologique de l'IA Gemini, son robot conversationnel lancé en 2023.
L’empreinte écologique de l'IA : une surprise
Selon Google, chaque requête textuelle dans Gemini consomme :
0,24 kilowattheure d’électricité → soit une seconde au micro-ondes, ou 9 secondes de télévision.
0,03 gramme de CO₂ → environ 1/150e de l’empreinte carbone produite par la recharge complète d’un téléphone intelligent.
0,26 millilitre d’eau → à peine cinq gouttes.
👉 Ces chiffres semblent dérisoires, surtout comparés aux estimations catastrophiques publiées dans la presse. Mais attention : ils ne concernent que les requêtes textuelles simples.
Google précise aussi que ces données reposent sur un calcul full stack, c’est-à-dire qu’elles incluent non seulement la consommation des processeurs d’IA, mais aussi l’infrastructure entourant leur fonctionnement : refroidissement des serveurs, capacité inutilisée, et fonctionnement global des centres de données.
À noter : les puces d’IA ne comptent que pour 58 % de la consommation totale. Le reste provient de l’infrastructure qui permet à Gemini de répondre en temps réel.

Des gains d’efficacité importants
Peut-être plus impressionnant encore : Google affirme avoir réduit la consommation par requête d’un facteur 33 en un an.
En mai 2024, chaque requête Gemini nécessitait environ 8 kilowattheures. Un chiffre beaucoup plus proche des prévisions alarmantes qui circulaient dans les médias, et qui expliquaient la crainte d’un désastre écologique.

En l’espace de quelques mois, l’empreinte énergétique d’une requête a donc fondu pour atteindre un niveau presque négligeable… à l’échelle individuelle.
Les zones grises : ce que Google ne dit pas
Bien que cette annonce marque une avancée majeure en matière de transparence, elle soulève aussi de nouvelles questions.
Le volume global de requêtes
Un coût énergétique minime multiplié par des milliards de requêtes quotidiennes devient colossal. Sans chiffres précis sur le nombre de requêtes traitées chaque jour par Gemini, impossible d’évaluer son impact global.
Les autres fonctionnalités
Gemini ne fait pas que générer du texte. Il peut produire des images, des vidéos, et lancer des analyses avancées comme une recherche approfondie, dont chaque réponse équivaut à des dizaines de requêtes textuelles. Google ne fournit aucune donnée pour ces cas plus énergivores.
L’entraînement des modèles
C’est ce qui manque dans cette analyse. Entraîner un modèle d’IA de la taille de Gemini nécessite des mois de calcul sur des milliers de processeurs, avec une consommation énergétique astronomique. Certains chercheurs estiment que l’entraînement d’un seul grand modèle peut générer autant de CO₂ que des centaines de vols transatlantiques.
La transparence sélective
En publiant uniquement les chiffres qui l’arrangent (l’inférence, c’est-à-dire l’usage au quotidien), Google garde la maîtrise du récit. L’absence de données globales rend impossible toute comparaison avec d’autres acteurs comme OpenAI, Anthropic ou Meta.
Comparaison d'une requête Gemini à d’autres activités
Pour mieux comprendre, plaçons les chiffres dans un contexte quotidien :
0,24 kWh (Gemini) : une seconde de micro-ondes.
1 kWh : charger un téléphone pendant une minute.
8 kWh : faire fonctionner une ampoule LED de 8W pendant une heure.
60 kWh : une heure de télévision moderne.
200 kWh : une heure d’ordinateur portable intensif.
Ainsi, une requête Gemini coûte presque rien comparée à une heure de Netflix ou à un cycle de lavage. Mais à grande échelle, l’impact devient vite considérable.
Centres de données
Les données de Google rappellent une réalité : l’IA ne peut pas être isolée de son infrastructure.
Les centres de données consomment déjà environ 2 % de l’électricité mondiale. Avec la montée en puissance de l’IA, cette part pourrait grimper rapidement. Certains experts estiment que d’ici 2030, la demande énergétique des data centers pourrait doubler si aucune optimisation majeure n’est réalisée.
L’eau est un autre enjeu critique. Les serveurs nécessitent un refroidissement constant, souvent assuré par des systèmes à base d’eau. En 2022, Google avait déjà été critiqué pour la consommation d’eau de ses data centers aux États-Unis, en particulier dans des régions touchées par la sécheresse.
Google face à la pression mondiale
Si Google publie ces données aujourd’hui, ce n’est pas un hasard. La pression monte :
Les ONG environnementales alertent sur l’impact de l’IA.
Les gouvernements, notamment en Europe, exigent davantage de transparence.
Les investisseurs veulent savoir si la croissance de l’IA est durable.
En révélant des chiffres très faibles, Google cherche à montrer qu’elle maîtrise la situation et que l’IA peut rimer avec efficacité énergétique.
Les enjeux à long terme
Le paradoxe est clair :
D’une part, Google a réalisé des progrès techniques spectaculaires, réduisant l’empreinte par requête.
De l’autre, l’adoption massive de l’IA pourrait annuler ces gains, voire augmenter la consommation globale.
C’est la fameuse « logique de l’effet rebond » : plus une technologie devient efficace, plus elle est utilisée, et plus sa consommation totale augmente.
Vers une IA plus verte?
Pour réduire réellement l’empreinte énergétique de l’IA, plusieurs pistes existent :
Optimiser encore les puces d’IA;
Déployer les centres de données dans des zones alimentées par des énergies renouvelables;
Recycler la chaleur des serveurs;
Développer des modèles plus petits et spécialisés.
Une transparence bienvenue, mais partielle
En publiant des chiffres précis, Google a fait un pas important vers plus de transparence.
L’annonce montre que l’empreinte énergétique de l’IA n’est pas forcément le désastre annoncé… du moins à l’échelle d’une requête textuelle.
Mais le tableau reste incomplet. L’absence de données globales, la non-prise en compte de l’entraînement des modèles et l’exclusion des fonctionnalités les plus lourdes en énergie empêchent de dresser un véritable bilan.
🤔 La question essentielle demeure : l’IA sera-t-elle un outil durable ou un accélérateur de la crise environnementale? Tout dépendra de la transparence des géants de la tech, de leur volonté d’innover vers une IA « verte », et de notre usage collectif.
Source : Google Cloud Blog. (Août 2025). Measuring the environmental impact of delivering AI at Google Scale. Récupéré de https://cloud.google.com/blog/products/infrastructure/measuring-the-environmental-impact-of-ai-inference