Kostenattribution pro Request über alle Provider. Sehen Sie genau, wohin Ihre Tokens gehen, welche Modelle am meisten verbrennen und wo Sie optimieren können.
Grepture verfolgt Token-Nutzung und berechnet Kosten für jeden Request, der durch Ihre App fließt. Sie erhalten Kostenaufschlüsselungen pro Request, pro Modell und pro Endpunkt — über OpenAI, Anthropic, Google AI und alle anderen unterstützten Provider. Funktioniert sowohl im Proxy-Modus als auch im Trace-Modus, sodass Sie Kostenvisibilität erhalten, auch wenn Requests direkt an den Provider gehen.
Der Proxy zählt Input- und Output-Tokens pro Request und ordnet sie den Preisen des jeweiligen Providers zu. Kosten werden dem genutzten Modell und Endpunkt zugeordnet. Sehen Sie Ausgaben im Dashboard, filtern Sie nach Zeitraum, Modell oder Endpunkt und exportieren Sie für die Abrechnung. Im Trace-Modus extrahiert das SDK Token-Zahlen client-seitig und sendet sie asynchron — gleiche Kostendaten, null Proxy-Overhead.
| Model | Requests | Tokens | Cost | % of total |
|---|---|---|---|---|
| gpt-4o | 892 | 1.2M | $8.94 | 71.7% |
| claude-3.5-sonnet | 412 | 340K | $2.55 | 20.4% |
| gpt-4o-mini | 389 | 890K | $0.54 | 4.3% |
| gemini-1.5-pro | 154 | 210K | $0.44 | 3.5% |
npm install @grepture/sdk — Client wrappen — fertig.
Kostenlos für bis zu 1.000 Anfragen/Monat · Keine Kreditkarte erforderlich
Kostenlos starten