Avant de calculer l'empreinte carbone de vos appels API, il est utile de comprendre dans quel contexte macroéconomique ces émissions s'inscrivent. Trois sources institutionnelles ou de référence fournissent des repères souvent mal connus des équipes qui construisent leur premier inventaire Scope 3 IA : l'Agence internationale de l'énergie (AIE) sur la consommation globale des centres de données, McKinsey sur le différentiel cloud vs on-premise, et les chercheurs en ML (Strubell, BLOOM, Patterson) sur les ordres de grandeur de l'entraînement. Aucun de ces chiffres n'est un facteur d'émission directement applicable à vos tokens — mais ils permettent de cadrer les conversations avec des parties prenantes non techniques et de justifier la matérialité du poste dans un dossier CSRD.
Suivre ce poste en production →
Envoyez les volumes de tokens vers notre API — mêmes coefficients que cet article. Offre gratuite, sans carte bancaire.
Données AIE : les centres de données représentent 1 à 1,5 % de l'électricité mondiale
Selon le rapport Electricity 2024 de l'AIE, les centres de données ont consommé entre 200 et 250 TWh en 2022, soit environ 1 à 1,5 % de la consommation électrique mondiale. L'AIE projette que cette consommation pourrait doubler d'ici 2026 sous l'effet de la croissance des charges de travail IA, des systèmes de refroidissement plus intensifs, et du déploiement de GPU à haute densité de puissance.
Ce chiffre de 1 à 1,5 % est souvent mal interprété : il inclut l'ensemble des centres de données (cloud computing, SaaS, vidéo en streaming, stockage), pas seulement l'inférence LLM. La part spécifique aux modèles d'IA générative reste inférieure — mais évolue rapidement. Pour votre reporting Scope 3, la grandeur à retenir est que le secteur est matériel à l'échelle mondiale, et que vos propres dépenses API sont une fraction mesurable de cette empreinte collective.
Le coût d'entraînement d'un grand modèle : références Strubell, BLOOM, Patterson
Les équipes qui parlent à des directions RSE ou à des journalistes sont souvent confrontées au chiffre le plus cité dans la presse généraliste : Strubell et al. (2019) a mesuré l'entraînement d'un Transformer avec recherche d'architecture neuronale (NAS) à environ 283 tonnes de CO₂e — repris par le MIT Technology Review sous l'angle « équivalent à cinq voitures américaines sur leur durée de vie ». Ce chiffre correspond à un scénario d'entraînement extrême (NAS complet, matériel non optimisé de 2019) ; un entraînement moderne sur infrastructure cloud efficace avec de l'énergie décarbonée serait très inférieur.
Des études plus récentes donnent des repères plus fins : l'estimation BLOOM 176B (JMLR, 2024) rapporte de l'ordre de 25 tonnes CO₂e pour les émissions énergie-entraînement seules, dans un contexte d'hébergement à faible intensité carbone. Et Patterson et al. (2021) ont montré que la localisation de l'entraînement — et donc l'intensité carbone du réseau électrique — peut modifier l'empreinte de plusieurs ordres de grandeur pour un même modèle. L'enseignement pratique : entraîner en France (nucléaire) ou en Scandinavie (hydraulique) peut coûter 10 à 50 fois moins en CO₂e qu'en Australie ou dans le Midwest américain à forte intensité charbon.
Pour votre reporting CSRD, ces chiffres d'entraînement ne s'appliquent qu'aux équipes qui entraînent ou fine-tunent leurs propres modèles. Si vous consommez uniquement des API de fondation (OpenAI, Anthropic, Google), l'entraînement des modèles sous-jacents n'appartient pas à votre périmètre Scope 3 direct — voir la discussion Catégorie 1 vs Catégorie 11.
Cloud vs on-premise : jusqu'à -80 % d'énergie selon McKinsey
McKinsey a documenté dans ses travaux sur les migrations cloud que le passage d'une infrastructure on-premise traditionnelle vers le cloud peut réduire la consommation énergétique jusqu'à 80 %. Les mécanismes sont multiples : mutualisation des ressources et meilleur taux d'utilisation des serveurs, parc matériel récent à meilleure efficacité énergétique (PUE amélioré), et programmes d'approvisionnement en énergie renouvelable des grands opérateurs cloud.
Ce chiffre est une borne haute dans un scénario favorable : il suppose une migration complète depuis un datacenter on-premise vieillissant vers un fournisseur cloud doté d'une politique énergétique ambitieuse. En pratique, les réductions observées varient selon les configurations. Mais l'ordre de grandeur reste utile pour une analyse d'opportunité : si votre infrastructure GPU d'inférence est hébergée on-premise sur du matériel de plus de cinq ans, la migration cloud mérite une évaluation carbone sérieuse avant l'optimisation des prompts.
Pour le reporting, ce levier affecte le Scope 2 (énergie achetée) si vous hébergez vous-même, ou le Scope 3 Cat. 1 si vous externalisez à un prestataire cloud — avec une méthode marché si vous bénéficiez de garanties d'origine renouvelable contractuelles.
AI Energy Score : vers une étiquette énergie pour les modèles
L'initiative AI Energy Score, portée notamment par Salesforce et Hugging Face, vise à créer un standard d'étiquetage de l'efficacité énergétique des modèles IA — sur le modèle des étiquettes A à G des appareils électroménagers. L'idée : permettre aux acheteurs et aux DSI de comparer directement deux modèles sur leur consommation normalisée par tâche, sans avoir à consulter des benchmarks académiques.
En l'absence d'un standard adopté (mai 2026), les benchmarks documentés comme Jegham et al. (2025) restent la référence la plus complète pour comparer les modèles frontier sur la consommation en Wh par requête. Si l'AI Energy Score se généralise, il pourrait devenir un critère d'appel d'offres — au même titre que le score DESI ou les labels ISO pour les équipements IT — et simplifier considérablement la justification des choix de modèles dans un dossier ESRS E1.
Ce que ces chiffres signifient pour votre inventaire Scope 3
- Le chiffre AIE justifie la matérialité. Si votre budget API représente un poste non négligeable, vous pouvez argumenter que ce secteur est matériel à l'échelle mondiale — et donc que votre mesure est cohérente avec ESRS E1-6 (cloud et centres de données en sous-ensemble Scope 3 amont).
- Le chiffre Strubell contextualise — mais ne s'applique pas à l'inférence. Ne l'utilisez pas comme facteur d'émission pour vos appels API. Il sert à répondre à la question « c'est grave ? » en comité de direction, pas à remplir un tableau de bord.
- Le chiffre McKinsey oriente les décisions infra. Si votre organisation envisage une migration cloud ou un renouvellement de serveurs, intégrez l'impact carbone dans l'analyse coût-bénéfice — c'est un levier Scope 2 ou Scope 3 Cat. 1 documentable dans un plan de transition ESRS E1-1.
- L'AI Energy Score à surveiller. Intégrez une veille sur ce standard dans votre politique achats IT dès maintenant, pour ne pas être pris de court si un appel d'offres l'exige en 2027.
Sources et lectures complémentaires
- AIE — Electricity 2024 : consommation des centres de données et projections 2026
- Strubell et al. (2019) — Energy and Policy Considerations for Deep Learning in NLP
- JMLR 2024 — Estimating the Carbon Footprint of BLOOM, a 176B Parameter Model
- Patterson et al. (2021) — Carbon Emissions and Large Neural Network Training
- Jegham et al. (2025) — How Hungry is AI? Benchmarking Energy, Water, and Carbon Footprint of LLM Inference
Les pages externes sont indépendantes ; carbon-llm n’approuve pas et ne contrôle pas le contenu tiers.
Avertissement. Les chiffres AIE et McKinsey cités sont des ordres de grandeur sectoriels, non des facteurs d'émission par token. Ne les utilisez pas directement dans un calcul d'inventaire Scope 3 sans les ajuster à votre périmètre et à votre méthode d'allocation. Pour les coefficients par token, voir la méthodologie carbon-llm.