Benchmark CO₂ des LLM (indicatif)
Des ordres de grandeur pour les équipes produit et RSE — les mêmes coefficients alimentent l'API live, avec citations complètes sur la page méthodologie.
Comment lire ce tableau
Les valeurs sont en grammes CO₂e pour 1 000 tokens au total (prompt + completion), avec des facteurs consolidés au niveau du modèle. Les déploiements réels varient selon la région, le matériel et la charge — utilisez ce tableau pour la comparaison et la planification, puis instrumentez la production avec l'API pour des totaux auditables.
Les sources fournisseurs et revues par les pairs nourrissent les lignes mesurées et benchmarkées ; les autres modèles utilisent des facteurs de classe estimés et transparents. Consultez la méthodologie pour les URL et les formules.
Essayez les outils (confiance)
Comparez les modèles, validez les affirmations face à la méthodologie — pilier 3 de la série éditoriale.
Coefficients par modèle
Instantané du jeu de coefficients utilisé par
/estimate et /track.| Modèle | gCO₂e / 1k tokens | Confiance |
|---|---|---|
| gpt-4o | 0.37 | Benchmarked |
| gpt-4o-mini | 0.1 | Benchmarked |
| gpt-4-turbo | 0.35 | Estimated |
| gpt-3.5-turbo | 0.08 | Estimated |
| claude-3-5-sonnet | 0.85 | Benchmarked |
| claude-3-opus | 0.45 | Benchmarked |
| claude-3-haiku | 0.1 | Benchmarked |
| mistral-large-2 | 2.85 | Measured |
| mistral-small | 0.8 | Estimated |
| mistral-medium | 1.2 | Estimated |
| gemini-1-5-flash | 0.075 | Measured |
| gemini-1-5-pro | 0.12 | Measured |
| gemini-2-0-flash | 0.08 | Measured |
| llama-3-70b | 0.25 | Benchmarked |
| llama-3-8b | 0.05 | Benchmarked |
| grok-3 | 0.38 | Estimated |
| grok-2 | 0.28 | Estimated |
| grok-4 | 2.53 | Benchmarked |
| gpt-5 | 3.71 | Benchmarked |
| gpt-5-high | 3.71 | Benchmarked |
| gpt-5-medium | 2.22 | Benchmarked |
| gpt-5-low | 1.42 | Benchmarked |
| gpt-5-mini | 0.8 | Benchmarked |
| gpt-5-mini-high | 2.29 | Benchmarked |
| gpt-5-nano | 1.15 | Benchmarked |
| o3-pro | 3.7 | Benchmarked |
| o3-mini-high | 1.14 | Benchmarked |
| o4-mini-high | 1.07 | Benchmarked |
| claude-4-opus | 0.8 | Benchmarked |
| claude-4-sonnet | 0.65 | Estimated |
| mistral-medium-3 | 0.76 | Benchmarked |
| deepseek-v3-2-exp | 6.97 | Benchmarked |
| deepseek-v3-2 | 6.94 | Benchmarked |
| kimi-k2-thinking | 1.27 | Benchmarked |
| llama-3-1-405b-standard | 4.5 | Benchmarked |
| llama-3-1-405b-latency-optimized | 1.5 | Benchmarked |
| grok-3-fast | 1.07 | Benchmarked |
| deepseek-v3 | 0.45 | Estimated |
| deepseek-r1 | 0.9 | Estimated |
| deepseek-r1-zero | 0.8 | Estimated |
| moonshot-v1 | 0.5 | Estimated |
| qwen-max | 0.55 | Estimated |
| qwen-plus | 0.3 | Estimated |
| qwen-turbo | 0.12 | Estimated |
| qwen-long | 0.18 | Estimated |
| ernie-4.0 | 0.55 | Estimated |
| ernie-3.5 | 0.3 | Estimated |
| ernie-speed | 0.1 | Estimated |
| doubao-pro | 0.5 | Estimated |
| doubao-lite | 0.12 | Estimated |
| glm-4 | 0.48 | Estimated |
| glm-4-flash | 0.1 | Estimated |
| glm-3-turbo | 0.15 | Estimated |
Besoin des chaînes de sources complètes et du récit PDF ? Consultez le tableau complet sur la page méthodologie.