Une seule règle : POST /api/v1/track avec model + prompt_tokens + completion_tokens + tenant_id. Que vous appeliez via le Vercel AI SDK, le SDK OpenAI direct, LangChain, LiteLLM, MCP ou un pont local, le contrat est le même. Pas de SDK propriétaire à installer, pas de vendor lock-in.
Helper trackUsage() de 5 lignes pour generateText, streamText, generateObject. Pattern fire-and-forget zéro latence + middleware optionnel.
Voir →Server Actions, API routes, edge runtime — instrumentez la couche serveur, pas le client. CARBON_LLM_API_KEY reste secrète.
Voir →Framework agent TypeScript. Hook onAgentStep + onToolCall → trackUsage helper. Pattern similaire au middleware Vercel AI SDK.
Sans Vercel AI SDK, juste openai.chat.completions.create. Lisez response.usage et postez vers /api/v1/track. 3 lignes.
Voir →Le messages.create retourne usage avec input_tokens + output_tokens. Mappez sur prompt_tokens + completion_tokens dans /track.
Voir →client.chat.complete renvoie usage compatible OpenAI. Pas de mapping spécifique requis.
Voir →Python recipe carbon-llm-track — wrap chaque appel LLM dans un flow Dataiku. Tags par projet + tenant_id automatique. Plugin custom à venir.
Voir →Abonnement aux audit logs de Mosaic AI Gateway (Delta table system.ai.usage_log) + pull horaire dans /api/v1/track. Aucun changement de notebook.
Voir →Lit SNOWFLAKE.ACCOUNT_USAGE.CORTEX_FUNCTIONS_USAGE_HISTORY (vue native) + push vers /track. Tags warehouse + role automatique.
API GET /inference-endpoints/{name}/logs — pull horaire des request_count par modèle endpoint. Estimation CO2e via coefficients HF Hub.
Lecture des Azure Monitor logs (TokenUsage metric) via Resource Graph API. Sync horaire, multi-deployment, multi-tenant Azure AD.
CloudWatch metrics InvocationLatency + InputTokenCount + OutputTokenCount par foundation model. Sync via boto3 + cross-account role.
L'AI Gateway de Vercel expose des usage logs unified (OpenAI/Anthropic/Mistral/Google). Webhook ou pull périodique vers /track.
Cloud Logging filtre `resource.type=aiplatform.googleapis.com/Endpoint`. Sync via Pub/Sub push subscription vers webhook /track.
Ajoutez un BaseCallbackHandler qui hook on_llm_end. Le callback récupère token_usage et envoie le track event en fire-and-forget.
Voir →LiteLLM Router émet des callbacks success_callback. Ajouter une fonction custom qui POST vers /api/v1/track.
Multi-provider router 1 token = N modèles. API GET /api/v1/key/usage retourne le détail par requête. Sync horaire.
Plateforme inference open-source (Llama, Mistral, Mixtral). API /usage retourne tokens consommés par endpoint.
Inference fast pour open-source models. Webhook subscription on-billing-event ou pull /accounts/{id}/usage.
Gateway analytics observability multi-provider. Forward des events via Portkey webhook → carbon-llm /track.
Si vous loguez déjà tout dans Langfuse, on co-existe : Langfuse forward les traces vers /track. Pas besoin de re-instrumenter.
Helicone proxy expose chaque LLM call avec usage. Webhook helicone:usage → /track. Pour qui veut un seul gateway.
DD LLM Obs trace les LLM calls avec tokens. Forward via Datadog webhook → /track. Maintient le single pane of glass DD.
Node HTTP Request natif vers /api/v1/track après chaque LLM node. Workflow template publié sur n8n.io/workflows.
Action Zap 'Send carbon-llm track event' — connecte n'importe quel trigger AI (OpenAI, ChatGPT, Anthropic) au tracking.
Module HTTP Request avec template carbon-llm dans la library Make. Glisser-déposer après chaque module IA.
Manifest MCP officiel — vos sessions IDE sont trackées automatiquement. Compatible Claude Code, Cursor, Continue.
Voir →Pour les utilisateurs finaux qui consomment ChatGPT.com / claude.ai sans API. Track CO₂ par session, side-panel inline.
Voir →L'API Admin Copilot Usage expose seat_breakdown + completions par jour. Connecteur Pro (en dev) — auto-pull depuis /enterprises/{id}/copilot/usage.
Open-source coding assistant. Config carbon-llm comme `analytics` provider — chaque suggestion accepted/rejected loggue ses tokens.
Reverse proxy OpenAI-compatible qui pousse les events. Ollama, vLLM, llama.cpp, n'importe quel /v1/chat/completions.
Notre propre runtime — fetch natif, pas de Node-only API. Helper compatible Workers AI Gateway.
Voir →Edge + Node runtime supportés. fetch fire-and-forget marche en edge runtime.
Voir →Comme l'API est REST + JSON et accepte n'importe quel client HTTP, vous pouvez l'appeler depuis Go, Ruby, Python, Java, .NET, Rust, PHP, Elixir — tous les écosystèmes IA du moment fonctionnent. Si vous voulez un guide officiel pour un framework précis (Pydantic AI, Instructor, Magentic, AI SDK Python, Genkit…), écrivez à hello@carbon-llm avec votre cas d'usage, on priorise les guides selon les demandes.
Pour les comptes Compliance, on peut aussi écrire un connecteur custom dans le scope du contrat.
100k events/mois gratuits sans CB. Pro à partir de 49 €/mois (founders pricing verrouillé à vie pour les 50 premiers). Garantie 30 jours.