Carbon-LLMBenchmark CO₂ des LLM
Retour

Benchmark CO₂ des LLM (indicatif)

Des ordres de grandeur pour les équipes produit et RSE — les mêmes coefficients alimentent l'API live, avec citations complètes sur la page méthodologie.

Comment lire ce tableau
Les valeurs sont en grammes CO₂e pour 1 000 tokens au total (prompt + completion), avec des facteurs consolidés au niveau du modèle. Les déploiements réels varient selon la région, le matériel et la charge — utilisez ce tableau pour la comparaison et la planification, puis instrumentez la production avec l'API pour des totaux auditables.

Les sources fournisseurs et revues par les pairs nourrissent les lignes mesurées et benchmarkées ; les autres modèles utilisent des facteurs de classe estimés et transparents. Consultez la méthodologie pour les URL et les formules.

Essayez les outils (confiance)
Comparez les modèles, validez les affirmations face à la méthodologie — pilier 3 de la série éditoriale.
Coefficients par modèle
Instantané du jeu de coefficients utilisé par /estimate et /track.
ModèlegCO₂e / 1k tokensConfiance
gpt-4o0.37Benchmarked
gpt-4o-mini0.1Benchmarked
gpt-4-turbo0.35Estimated
gpt-3.5-turbo0.08Estimated
claude-3-5-sonnet0.85Benchmarked
claude-3-opus0.45Benchmarked
claude-3-haiku0.1Benchmarked
mistral-large-22.85Measured
mistral-small0.8Estimated
mistral-medium1.2Estimated
gemini-1-5-flash0.075Measured
gemini-1-5-pro0.12Measured
gemini-2-0-flash0.08Measured
llama-3-70b0.25Benchmarked
llama-3-8b0.05Benchmarked
grok-30.38Estimated
grok-20.28Estimated
grok-42.53Benchmarked
gpt-53.71Benchmarked
gpt-5-high3.71Benchmarked
gpt-5-medium2.22Benchmarked
gpt-5-low1.42Benchmarked
gpt-5-mini0.8Benchmarked
gpt-5-mini-high2.29Benchmarked
gpt-5-nano1.15Benchmarked
o3-pro3.7Benchmarked
o3-mini-high1.14Benchmarked
o4-mini-high1.07Benchmarked
claude-4-opus0.8Benchmarked
claude-4-sonnet0.65Estimated
mistral-medium-30.76Benchmarked
deepseek-v3-2-exp6.97Benchmarked
deepseek-v3-26.94Benchmarked
kimi-k2-thinking1.27Benchmarked
llama-3-1-405b-standard4.5Benchmarked
llama-3-1-405b-latency-optimized1.5Benchmarked
grok-3-fast1.07Benchmarked
deepseek-v30.45Estimated
deepseek-r10.9Estimated
deepseek-r1-zero0.8Estimated
moonshot-v10.5Estimated
qwen-max0.55Estimated
qwen-plus0.3Estimated
qwen-turbo0.12Estimated
qwen-long0.18Estimated
ernie-4.00.55Estimated
ernie-3.50.3Estimated
ernie-speed0.1Estimated
doubao-pro0.5Estimated
doubao-lite0.12Estimated
glm-40.48Estimated
glm-4-flash0.1Estimated
glm-3-turbo0.15Estimated

Besoin des chaînes de sources complètes et du récit PDF ? Consultez le tableau complet sur la page méthodologie.