Tool-Calls waren bisher im rohen Response-JSON vergraben. Jetzt wird jeder Tool-Aufruf Ihrer Agenten in eine eigene Tabelle extrahiert und ist direkt abfragbar.
Stats pro Tool — Aufrufvolumen, p50/p95-Latenz, Fehlerrate und Orphan-Anzahl (Tool-Calls ohne Ergebnis) fuer jedes Tool, das Ihre Agenten nutzen. Sortierbar, filterbar, ueber beliebige Zeitraeume zusammengefasst.
Volumen im Zeitverlauf — Ein gestapeltes Diagramm des Tool-Call-Volumens, aufgeschluesselt nach den meistgenutzten Tools. Erkennen Sie auf einen Blick ausser Kontrolle geratene Retry-Schleifen oder Tools, die haeufiger aufgerufen werden als erwartet.
Historische Abdeckung — Wir haben Ihren bestehenden Traffic zurueckgefuellt, damit die Analytics bis in die Vergangenheit reichen. Kein Warten auf neue Daten noetig.
Jeder Provider, jedes Format — OpenAI Chat Completions, die OpenAI Responses API, Anthropic Messages sowie die Streaming-Varianten (SSE) von allen. Eine Ansicht, alle Provider.
Zu finden unter Analytics → Tools.
Was als Naechstes kommt
Das ist die Basis. Mit Tool-Calls in einer echten Tabelle koennen wir ueber den gesamten Agent-Loop nachdenken — nicht nur ueber einzelne LLM-Aufrufe. Auf der Roadmap:
- Agent-Runs als First-Class-Einheit — LLM-Aufrufe und Tool-Calls zu logischen Runs gruppieren, mit Step-Counts, Terminal-State und Kosten-Rollups.
- Safety-Checks auf Tool-Ebene — credential-artige Argumente erkennen, die an externe APIs gehen, und Prompt-Injection-artige Inhalte in Tool-Ergebnissen markieren, bevor Ihr Agent darauf reagiert.
Mehr in Kuerze.