Spendero s’intègre à côté de vos appels IA. Vous continuez d’appeler vos providers normalement.
Vous envoyez uniquement des métadonnées d’usage : tokens, coût, latence, provider, modèle et contexte technique.
Aucun contenu utilisateur n’est transmis.
curl -X POST "https://my.spendero.app/ingest/call" \
-H "Authorization: Bearer VOTRE_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"project_id": "d64291c4-0a93-49a7-815e-c3a255b539a1",
"provider": "openai",
"endpoint": "chat.completions",
"client": "backend-prod",
"model": "gpt-4o-mini",
"prompt_tokens": 120,
"completion_tokens": 350,
"total_tokens": 470,
"cost_eur": 0.00234,
"latency_ms": 820,
"status": "success"
}'Spendero ne s’impose pas à votre architecture : vous choisissez la méthode la plus simple pour votre stack.
Suivez, optimisez et anticipez vos dépenses OpenAI, Mistral ou Claude en temps réel. Pensé pour les équipes produit & tech.