Carbon-LLMAPI carbone LLM
Retour

API carbone LLM pour développeurs

Mesurez le CO₂ LLM depuis vos métadonnées existantes : modèle + tokens de prompt et de réponse. carbon-llm renvoie des gCO₂e traçables par appel, par tenant et dans les exports mensuels — sans faire transiter les prompts.

Comment ça marche

Des métadonnées d’usage fournisseur à un CO₂e traçable — sans construire un moteur carbone interne.

Lire l’usage côté fournisseur
Après chaque appel LLM, récupérez model id, prompt_tokens et completion_tokens dans la réponse — aucun prompt ne quitte vos systèmes.
Appliquer un coefficient documenté
carbon-llm associe chaque modèle à un gCO₂e / 1k tokens (mesuré, benchmarké ou estimé, avec étiquette).
POST /estimate ou /track
Vérifiez rapidement avec /estimate (sans auth). Le trafic production passe par /track avec tenant_id et clé API.
Reporter & exporter
Dashboards par tenant, PDF mensuels type CSRD et liens de partage pour la preuve côté client.

Tableur vs API

Sans API dédiée
Facteurs manuels, exports périmés, pas de traçabilité par tenant.

Les calculatrices ponctuelles et tableurs divergent entre staging et prod.

Les acheteurs demandent un carbone IA par client — difficile à défendre en due diligence.

Avec carbon-llm
Même contrat REST partout ; méthodologie versionnée.

POST /track après chaque inférence — dashboards et PDF restent alignés avec votre produit.

Coefficients et niveaux de confiance sont documentés pour audit et appels d’offres.

En un coup d’œil

CapacitéCalculateur génériquecarbon-llm API
Par tenant / tenant_idSouvent nonOui — au cœur de /track
Historique d'événements productionAd hocDashboard + exports
Méthodologie & confianceVariableDocumenté + étiqueté
IntégrationManuelREST + JSON (sans SDK imposé)

Positionnement dans votre stack

Les équipes utilisent à la fois des API GES générales et des briques spécifiques LLM. Voici où carbon-llm s’insère, sans remplacer votre plateforme carbone globale.

Complémentaire des API carbone généralistes
Beaucoup d’outils Scope 3 couvrent produits, achats ou supply chain. Cette API cible l’inférence LLM (modèle + tokens) découpée par tenant_id, là où les acheteurs posent leurs questions IA.
Même champs que coût et observabilité
Si vous loggez déjà modèle et tokens (Langfuse, LiteLLM, OTel), appelez POST /track au même endroit. Le carbone devient une couche additive.
Coefficients documentés et traçables
La recherche publique sur l’énergie d’inférence progresse. Nous mappons les modèles en gCO₂e avec niveau de confiance et méthode publiée pour des exports explicables.

Cas d’usage développeur

Multi-tenant B2B SaaS

Attribuez le carbone IA à chaque client via tenant_id stable, comme pour la facturation et l’analytics.

En savoir plus
IDE & Claude Code

MCP optionnel pour le CO₂ des sessions développeur — mêmes coefficients que /track en production.

En savoir plus
Preuves appels d'offres & CSRD

Exports orientés méthodologie pour questionnaires et disclosures type ESRS E1 — hors conseil juridique.

En savoir plus

Expérience développeur

Conçu pour des intégrations HTTP-first, comme les API modernes.

Documentation & exemples
Démarrage rapide, sémantique tokens et référence endpoints dans /docs.
REST, pas un SDK verrouillé
Python, Node, Go, ou tout client HTTPS — quelques lignes après votre appel LLM.
Bac à sable
Testez /estimate et /track depuis le dashboard avant la mise en production.
Traçabilité d’hébergement
Documentation claire pour les équipes qui doivent expliquer où la télémétrie est traitée.
Endpoints réellement utilisés
Chemins stables ; schémas complets dans la documentation.

POST/v1/estimate — gCO₂e immédiat (sans auth ; non stocké).

POST/v1/track — événements production avec tenant_id + Bearer key.

Méthodologie · Référence API complète