Das Grepture CLI — Ein lokales AI Gateway
Das Grepture CLI ist jetzt auf npm. Mit grepture dev routet ihr euren AI-Traffic durch ein lokales Gateway mit voller Observability, PII-Redaktion und Kosten-Tracking — direkt aus dem Terminal.
Eure Entwicklungsumgebung fliegt blind
Production hat Observability. Dev Environments nicht. Wir denken, das ist verkehrt herum — Entwicklung ist genau dort, wo ihr experimentiert, iteriert und am ehesten versehentlich etwas sendet, das ihr nicht senden solltet.
Heute veröffentlichen wir das Grepture CLI auf npm. Es ist ein lokales AI Gateway, das eurer Entwicklungsumgebung dieselbe Sichtbarkeit und denselben Schutz gibt wie eurem Produktions-Traffic.
Installieren und starten
npm install -g @grepture/cli
grepture login
grepture dev
Das war's. Ein lokaler Proxy startet auf localhost:8787. Zeigt euer AI SDK darauf:
import OpenAI from "openai";
const openai = new OpenAI({
baseURL: "http://localhost:8787/proxy",
apiKey: process.env.OPENAI_API_KEY,
});
Jeder Request fließt jetzt durch Grepture. Euer Terminal zeigt einen Live-Traffic-Tail:
Grepture Dev Session
─────────────────────────────────────────
Session: d7150823
Proxy: http://localhost:8787
Dashboard: https://app.grepture.com/sessions/d7150823...
─────────────────────────────────────────
9:47:30 PM POST 200 gpt-4o 1.204ms 12.430 tok /v1/chat/completions
9:47:45 PM POST 403 gpt-4o 89ms BLOCKED /v1/chat/completions
9:48:01 PM POST 200 gpt-4o 2.105ms 45.230 tok /v1/chat/completions
Modell, Status, Latenz, Token-Anzahl — für jeden Request, in Echtzeit. Wenn eine Regel einen Request blockiert, seht ihr es sofort.
Warum Sessions für die Entwicklung wichtig sind
Wenn ihr grepture dev ausführt, erstellt das CLI eine Session — ein zeitlich begrenztes Fenster eures AI-Traffics, gebunden an eure Entwicklungsumgebung. Sessions erscheinen im Grepture Dashboard mit eigenem Traffic-Log, sodass ihr jeden Request und jede Response im Detail inspizieren könnt.
Das löst ein echtes Problem. Während der Entwicklung:
- Testet ihr Prompts und müsst genau sehen, was das Modell erhalten und zurückgegeben hat
- Debuggt ihr unerwartetes Verhalten und braucht den vollständigen Request/Response-Body, nicht nur einen Statuscode
- Iteriert ihr an Regeln und müsst verifizieren, dass sie bei echten Requests korrekt feuern
- Trackt ihr Kosten und wollt wissen, wie viele Tokens euer Feature verbraucht, bevor es live geht
Sessions geben euch all das, ohne euren Anwendungscode zu ändern. Session starten, arbeiten, Session beenden. Alles ist geloggt und im Dashboard verfügbar — verwendetes Modell, Token-Zahlen, Kostenschätzungen, Latenz, gefeuerte Regeln, die vollständigen Request- und Response-Bodies.
Sessions trennen sich automatisch nach 15 Minuten Inaktivität.
Was durch das Gateway fließt
Der lokale Proxy ist kein reiner Passthrough. Wenn euer Request localhost:8787 erreicht, läuft er durch Grepture Cloud, wo die Regeln eures Teams angewendet werden, bevor er den LLM-Provider erreicht. Das bedeutet während der Entwicklung bekommt ihr:
PII-Redaktion. Dieselben 50+ Erkennungsmuster, die euren Produktions-Traffic schützen, schützen auch eure Dev-Requests. Wenn eure Testdaten echte E-Mail-Adressen, Kreditkartennummern oder Telefonnummern enthalten, werden sie erkannt, bevor das Modell sie sieht.
Regel-Enforcement. Die Regeln eures Teams — Blocking-Regeln, Redaktionsregeln, Custom Patterns — werden in Echtzeit angewendet. Wenn ihr ein Feature baut, das in Produktion eine Regel auslösen würde, erfahrt ihr es jetzt statt nach dem Deployment.
Prompt-Management. Wenn ihr Managed Prompts verwendet, werden sie serverseitig über das Gateway aufgelöst. Aktualisiert einen Prompt im Dashboard, und euer nächster Dev-Request verwendet automatisch die neue Version.
Kosten-Tracking. Jeder Request zeigt Token-Zahlen im Terminal und Kostenschätzungen im Dashboard. Seht genau, was euer Feature kostet, bevor es live geht.
Über Sessions hinaus: Codebase scannen
Das CLI enthält auch einen eigenständigen Security-Scanner. Keine Cloud-Verbindung nötig — er läuft lokal mit Regex-basierter Erkennung für PII, hardcodierte Secrets und unsichere AI-SDK-Muster.
grepture scan
src/api/chat.ts:12:21 error [grepture/generic-api-key]
E API key or secret detected
12 | const key = "sk-proj-abc123...";
| ~~~~~~~~~~~~~~~~~~
src/prompts/system.txt:5:1 warning [grepture/prompt-injection]
W Potential prompt injection pattern detected
5 | Ignore all previous instructions
| ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
2 findings (1 error, 1 warning)
Der Scanner findet Dinge, die nicht in eure Codebase gehören — API-Keys in Dateien, PII in Testdaten, Prompt-Injection-Muster in Templates. Er ist die statische Analyse-Ergänzung zum Laufzeitschutz, den Sessions bieten.
Git Hooks
Installiert einen Pre-Commit-Hook, der Staged Files vor jedem Commit scannt:
grepture hook install
Wenn eine Staged-Datei einen hardcodierten API-Key oder PII über eurem Severity-Schwellenwert enthält, wird der Commit blockiert.
CI/CD-Integration
Das CLI gibt SARIF für GitHub Code Scanning aus:
- run: grepture ci --format sarif > results.sarif
- uses: github/codeql-action/upload-sarif@v3
with:
sarif_file: results.sarif
Im CI-Modus scannt es standardmäßig nur geänderte Dateien (den PR-Diff), sodass es auch in großen Repos schnell ist.
Team-Regeln synchronisieren
Wenn euer Team Regeln im Grepture Dashboard konfiguriert hat, zieht das CLI sie automatisch während grepture dev-Sessions. Aber ihr könnt Regeln auch explizit verwalten:
grepture rules pull # Team-Regeln aus der Cloud holen
grepture rules push # Lokale Regeln in die Cloud pushen
grepture rules list # Alle aktiven Regeln anzeigen
Das bedeutet: ihr könnt Regeln lokal entwickeln, sie gegen eure Codebase testen mit grepture rules test <datei>, und sie eurem Team pushen, wenn sie bereit sind.
Open Source
Das CLI ist Open Source unter AGPL-3.0. Der Scanner, die Erkennungsmuster und die lokale Rules Engine können inspiziert, auditiert und mitentwickelt werden. Die Cloud-Features — Sessions, KI-gestützte Erkennung, Team-Regeln-Sync — erfordern ein Grepture-Konto.
Jetzt starten
npm install -g @grepture/cli
grepture dev
Zeigt euer AI SDK auf http://localhost:8787 und fangt an zu bauen. Eure Requests werden geloggt, eure Daten geschützt und eure Kosten getrackt — ab dem ersten API-Call.
- CLI auf npm
- CLI auf GitHub
- Wie Grepture funktioniert — Architekturübersicht
- Claude Code durch Grepture routen — das CLI mit Coding-Assistenten nutzen
- Cursor durch Grepture routen — dasselbe für Cursor