/
Accueil
Comparatif honnête · maintenu par carbon-llm

CodeCarbon ou carbon-llm ?

CodeCarbonest l'outil de référence pour mesurer l'empreinte carbone d'un entraînement ML en local — papier ICML 2022, ecosystem solide. carbon-llmmesure l'inférence LLM en production multi-tenant pour la conformité CSRD. Outils complémentaires, pas concurrents.

TL;DR : CodeCarbon si vous entraînez ou fine-tunez un modèle et voulez la précision GPU. carbon-llmsi vous appelez des APIs LLM en prod et avez besoin d'un export ESRS pour votre commissaire aux comptes.

Comparatif détaillé

Sources : CodeCarbon — Site officiel, dépôt GitHub mlco2/codecarbon (MIT). Mis à jour mai 2026.

CritèreCodeCarboncarbon-llm
Open sourceyes — MITCode dashboard public, plateforme hébergée
HébergementSelf-hosted (votre serveur)Cloudflare EU + Supabase EU géré
Intégration@track_emissions Python decoratorPOST /api/v1/track (n'importe quel langage)
Niveau de mesureHardware (RAPL/nvidia-smi/IPMI)Token-metadata (model + prompt/completion tokens)
Cas d'usage primaireEntraînement / fine-tuning MLInférence LLM en production
Précision GPU/CPUyes (lecture compteurs hardware)no (estimation par token via coefficients)
Multi-tenant (1 dashboard, N clients finaux)
Backend académiqueyes — papier ICML 2022, ecosystem mlco2Stanford AI Index 2026 cité, pas de papier propre
Export ESRS E1-6 structuré (datapoints E1_6_03..05)
Bundle d'audit signé HMAC-SHA256 (recompute_proof)
Connecteur OpenAI / Anthropic Admin Usage API
PDF mensuel par tenant
Quotas + facturation par usage
PrixGratuit (MIT)Free 100k events/mois → Pro 49 €/mois → Compliance ≥ 4 800 €/an

Si vous voyez une ligne incorrecte, écrivez à hello@carbon-llm — on corrige sous 48 h.

Quand choisir lequel ?

La grosse différence n'est pas la qualité, c'est le moment du cycle de vie où on mesure : entraînement (CodeCarbon) ou inférence en prod (carbon-llm).

Choisir CodeCarbon

ML eng / chercheur, vous entraînez ou fine-tunez

  • Vous entraînez un modèle ML (epoch, fine-tuning, RAG indexing)
  • Vous voulez la précision GPU/CPU/RAM via RAPL et nvidia-smi
  • Vous avez accès au hardware (pas un appel d'API tierce)
  • Vous voulez un papier académique citable dans votre publication
  • Vous travaillez en Python uniquement
  • Budget zéro (MIT, gratuit)
Aller sur codecarbon.io

Choisir carbon-llm

Équipe produit / RSE, vous appelez des APIs LLM en prod

  • Vous appelez l'API OpenAI / Anthropic / Mistral en production
  • Vous n'avez pas accès au hardware d'inférence (c'est chez le provider)
  • Vous avez plusieurs clients finaux (multi-tenant SaaS)
  • Vous devez livrer un export CSRD ESRS E1-6 à votre commissaire
  • Vous voulez un dashboard customer-facing sans rien construire
  • Polyglot (Node, Go, Ruby, Python, Java, .NET tous supportés)
Voir le pricing

Les 4 différences qui comptent

Pourquoi les deux outils répondent à des questions différentes.

1. Hardware vs token-metadata

CodeCarbon lit RAPL (Intel CPU power), nvidia-smi (GPU), et IPMI (datacenter PDU) pendant l'exécution. Précision excellente mais nécessite l'accès machine. Quand vous appelez l'API d'OpenAI, le GPU est dans leurdatacenter — vous n'avez aucune lecture matérielle possible.

carbon-llm estime depuis le metadata model + prompt_tokens + completion_tokens via les coefficients gCO2e/1k tokens publiés (Stanford AI Index 2026). Précision moindre, mais seule option viable pour l'inférence sur API tierces.

2. Dossier de recherche vs livrable d'audit

CodeCarbon produit des CSV pour publier un papier ou alimenter un dashboard interne. Format excellent pour l'exploration. Mais aucun cabinet d'audit ne signe sur du CSV brut— il faut le mapping ESRS E1-6, les datapoints structurés, la preuve d'intégrité.

carbon-llm génère le bundle d'audit signé HMAC-SHA256 avec recompute_proof que votre commissaire vérifie en local. Ce livrable est la valeur du tier Pro.

3. Mono-process vs multi-tenant SaaS

CodeCarbon mesure le process Python qui tourne. Pour mesurer 50 clients différents d'un SaaS, il faut soit lancer 50 process séparés, soit construire une couche de tagging custom — plusieurs semaines de dev maison.

carbon-llm a tenant_id en citoyen de première classe : un dashboard agrégé pour vous, un PDF / dashboard read-only par client final, prêt à exporter.

4. Crédibilité académique vs traçabilité industrielle

CodeCarbon a un papier ICML 2022+ un ecosystem académique (mlco2). C'est une force : si vous publiez ou présentez à un comité scientifique, vous citez CodeCarbon.

carbon-llmcite ses sources externes (Stanford AI Index 2026, ADEME, Carbone 4) mais n'a pas de papier propre — c'est une faiblesse pour la recherche, pas pour l'industrie. Les commissaires aux comptes n'exigent pas un papier ; ils exigent des coefficients publics + datés + un bundle vérifiable.

Et si on utilisait les deux ?

C'est exactement le combo qui marche : CodeCarbon mesure votre phase d'entraînement / fine-tuning (le moment où vous contrôlez le hardware), carbon-llmmesure votre phase d'inférence en prod (le moment où les utilisateurs finaux consomment). Ensemble, vous couvrez les deux moitiés du cycle de vie sans faux claim.

Pour l'export CSRD final, vous additionnez les deux dans la ligne « émissions Scope 3 IA » de votre rapport.

Essayer carbon-llm en 5 minutes

Plan Free : 100 000 events / mois sans CB. Trial Pro 14 jours. Founders pricing pour les 50 premiers : 49 €/mois verrouillé à vie.