/
Accueil
30+ intégrations · maintenu mensuellement

Toutes les façons de brancher carbon-llm

Une seule règle : POST /api/v1/track avec model + prompt_tokens + completion_tokens + tenant_id. Que vous appeliez via le Vercel AI SDK, le SDK OpenAI direct, LangChain, LiteLLM, MCP ou un pont local, le contrat est le même. Pas de SDK propriétaire à installer, pas de vendor lock-in.

Plateformes data / ML

8

Dataiku

Guide dispo

Python recipe carbon-llm-track — wrap chaque appel LLM dans un flow Dataiku. Tags par projet + tenant_id automatique. Plugin custom à venir.

Voir →

Databricks

Guide dispo

Abonnement aux audit logs de Mosaic AI Gateway (Delta table system.ai.usage_log) + pull horaire dans /api/v1/track. Aucun changement de notebook.

Voir →

Snowflake Cortex

Bientôt

Lit SNOWFLAKE.ACCOUNT_USAGE.CORTEX_FUNCTIONS_USAGE_HISTORY (vue native) + push vers /track. Tags warehouse + role automatique.

Hugging Face Inference Endpoints

Bientôt

API GET /inference-endpoints/{name}/logs — pull horaire des request_count par modèle endpoint. Estimation CO2e via coefficients HF Hub.

Azure OpenAI Service

Bientôt

Lecture des Azure Monitor logs (TokenUsage metric) via Resource Graph API. Sync horaire, multi-deployment, multi-tenant Azure AD.

AWS Bedrock

Bientôt

CloudWatch metrics InvocationLatency + InputTokenCount + OutputTokenCount par foundation model. Sync via boto3 + cross-account role.

Vercel AI Gateway

Bientôt

L'AI Gateway de Vercel expose des usage logs unified (OpenAI/Anthropic/Mistral/Google). Webhook ou pull périodique vers /track.

Google Vertex AI

Bientôt

Cloud Logging filtre `resource.type=aiplatform.googleapis.com/Endpoint`. Sync via Pub/Sub push subscription vers webhook /track.

Routers / Gateways LLM

6

LangChain (JS / Python)

Guide dispo

Ajoutez un BaseCallbackHandler qui hook on_llm_end. Le callback récupère token_usage et envoie le track event en fire-and-forget.

Voir →

LiteLLM

Bientôt

LiteLLM Router émet des callbacks success_callback. Ajouter une fonction custom qui POST vers /api/v1/track.

OpenRouter

Bientôt

Multi-provider router 1 token = N modèles. API GET /api/v1/key/usage retourne le détail par requête. Sync horaire.

Together AI

Bientôt

Plateforme inference open-source (Llama, Mistral, Mixtral). API /usage retourne tokens consommés par endpoint.

Fireworks AI

Bientôt

Inference fast pour open-source models. Webhook subscription on-billing-event ou pull /accounts/{id}/usage.

Portkey

Bientôt

Gateway analytics observability multi-provider. Forward des events via Portkey webhook → carbon-llm /track.

Observability

3

Langfuse

Bientôt

Si vous loguez déjà tout dans Langfuse, on co-existe : Langfuse forward les traces vers /track. Pas besoin de re-instrumenter.

Helicone

Bientôt

Helicone proxy expose chaque LLM call avec usage. Webhook helicone:usage → /track. Pour qui veut un seul gateway.

Datadog LLM Observability

Bientôt

DD LLM Obs trace les LLM calls avec tokens. Forward via Datadog webhook → /track. Maintient le single pane of glass DD.

Low-code / Automation

3

n8n

Bientôt

Node HTTP Request natif vers /api/v1/track après chaque LLM node. Workflow template publié sur n8n.io/workflows.

Zapier

Bientôt

Action Zap 'Send carbon-llm track event' — connecte n'importe quel trigger AI (OpenAI, ChatGPT, Anthropic) au tracking.

Make.com (ex-Integromat)

Bientôt

Module HTTP Request avec template carbon-llm dans la library Make. Glisser-déposer après chaque module IA.

IDE / Extensions

4

MCP (Claude Code, Cursor, IDEs)

Shipped

Manifest MCP officiel — vos sessions IDE sont trackées automatiquement. Compatible Claude Code, Cursor, Continue.

Voir →

Extension navigateur (ChatGPT, Claude, Gemini)

Shipped

Pour les utilisateurs finaux qui consomment ChatGPT.com / claude.ai sans API. Track CO₂ par session, side-panel inline.

Voir →

GitHub Copilot Enterprise

Bientôt

L'API Admin Copilot Usage expose seat_breakdown + completions par jour. Connecteur Pro (en dev) — auto-pull depuis /enterprises/{id}/copilot/usage.

Continue.dev

Bientôt

Open-source coding assistant. Config carbon-llm comme `analytics` provider — chaque suggestion accepted/rejected loggue ses tokens.

Plateformes / Runtime

3

Une intégration que vous voulez et qu'on n'a pas ?

Comme l'API est REST + JSON et accepte n'importe quel client HTTP, vous pouvez l'appeler depuis Go, Ruby, Python, Java, .NET, Rust, PHP, Elixir — tous les écosystèmes IA du moment fonctionnent. Si vous voulez un guide officiel pour un framework précis (Pydantic AI, Instructor, Magentic, AI SDK Python, Genkit…), écrivez à hello@carbon-llm avec votre cas d'usage, on priorise les guides selon les demandes.

Pour les comptes Compliance, on peut aussi écrire un connecteur custom dans le scope du contrat.

Prêt à instrumenter votre stack en 5 minutes ?

100k events/mois gratuits sans CB. Pro à partir de 49 €/mois (founders pricing verrouillé à vie pour les 50 premiers). Garantie 30 jours.