Kostenattribution pro Request über alle Provider. Sehen Sie genau, wohin Ihre Tokens gehen, welche Modelle am meisten verbrennen und wo Sie optimieren können.
Grepture verfolgt Token-Nutzung und berechnet Kosten für jeden Request, der durch den Proxy fließt. Sie erhalten Kostenaufschlüsselungen pro Request, pro Modell und pro Endpunkt — über OpenAI, Anthropic, Google AI und alle anderen unterstützten Provider.
Der Proxy zählt Input- und Output-Tokens pro Request und ordnet sie den Preisen des jeweiligen Providers zu. Kosten werden dem genutzten Modell und Endpunkt zugeordnet. Sehen Sie Ausgaben im Dashboard, filtern Sie nach Zeitraum, Modell oder Endpunkt und exportieren Sie für die Abrechnung.
| Model | Requests | Tokens | Cost | % of total |
|---|---|---|---|---|
| gpt-4o | 892 | 1.2M | $8.94 | 71.7% |
| claude-3.5-sonnet | 412 | 340K | $2.55 | 20.4% |
| gpt-4o-mini | 389 | 890K | $0.54 | 4.3% |
| gemini-1.5-pro | 154 | 210K | $0.44 | 3.5% |
Drop-in-SDK. Sehen Sie Ihre erste Anfrage in unter einer Minute.
Kostenlos für bis zu 1.000 Anfragen/Monat · Keine Kreditkarte erforderlich
Kostenlos starten