|Ben @ Grepture

Grepture — Inhaltsbewusster API-Sicherheitsproxy

Lernen Sie Grepture kennen — ein inhaltsbewusster Proxy, der sensible Daten in Ihrem KI-Datenverkehr erkennt und kontrolliert, bevor sie ein LLM erreichen.

Warum wir Grepture entwickelt haben

Jeden Tag fließen Millionen von API-Aufrufen zwischen Anwendungen und großen Sprachmodellen. In diesen Anfragen verbergen sich Namen, E-Mail-Adressen, API-Schlüssel, proprietärer Quellcode und andere Daten, die Ihr Netzwerk niemals verlassen sollten.

Die meisten Teams entdecken das erst, wenn es zu spät ist — nachdem Zugangsdaten in Trainingsdaten eines Modells gelangt sind oder ein Compliance-Audit ungeschützte personenbezogene Daten in Drittanbieter-APIs aufdeckt. Die übliche Reaktion: manuelle Prüfungen einführen oder Entwickler dazu anhalten, Prompts von Hand zu bereinigen. Beides skaliert nicht, und niemand macht es gerne.

Wir haben Grepture entwickelt, um dieses Problem auf Infrastrukturebene zu lösen. Es sitzt als programmierbarer Proxy zwischen Ihrer Anwendung und jedem KI-Anbieter. Jede Anfrage und Antwort wird auf PII, Geheimnisse und sensible Muster gescannt — und basierend auf Ihren Richtlinien geschwärzt, maskiert oder blockiert. Keine Code-Änderungen, keine manuellen Review-Engpässe. Regeln setzen, Traffic fließen lassen.

Das Problem mit "einfach aufpassen"

Engineering-Teams, die KI-Features ausliefern, arbeiten schnell. Prompts werden aus Benutzereingaben, Datenbankeinträgen, Support-Tickets und internen Dokumenten zusammengesetzt. Jede dieser Quellen kann enthalten:

  • Kunden-PII — Namen, E-Mails, Telefonnummern, Adressen, die unter die DSGVO und CCPA-Anforderungen fallen
  • Geheimnisse — API-Schlüssel, Datenbank-Verbindungszeichenfolgen, OAuth-Tokens, die versehentlich in Kontextfenstern landen
  • Proprietäre Daten — Quellcode, interne Dokumentation, Geschäftsgeheimnisse, die in Prompts eingefügt werden

Von jedem Entwickler zu verlangen, jeden Prompt manuell zu prüfen, ist einfach nicht realistisch. Sie brauchen automatisierte Erkennung auf Netzwerkebene — bevor Daten Ihre Infrastruktur verlassen.

So funktioniert es

  1. Erkennen — Konfigurierbare Regeln identifizieren personenbezogene Daten, Zugangsdaten und geistiges Eigentum in Echtzeit. Grepture wird im Free-Tier mit über 50 integrierten Regex-Mustern ausgeliefert (80+ bei Pro), die gängige PII-Formate, Geheimnis-Muster und Code-Fingerabdrücke abdecken. Darüber hinaus erkennen KI-gestützte Detektoren das, was Regex nicht kann — Namen in Fließtext, Prompt-Injection-Versuche und toxische Inhalte. Sie können auch eigene Regeln für Ihre spezifische Datenlandschaft hinzufügen.
  2. Handeln — Schwärzen, maskieren, tokenisieren, blockieren oder protokollieren Sie sensible Daten basierend auf Richtlinien, die Sie pro Modell, Endpunkt oder Datentyp definieren. Richtlinien sind zusammensetzbar — kombinieren Sie mehrere Regeln, legen Sie Empfindlichkeitsschwellen fest und erfüllen Sie Ihre Compliance-Anforderungen exakt.
  3. Wiederherstellen — Auf dem Antwortpfad rehydriert Grepture geschwärzte Token, sodass Ihre Anwendung vollständige, nutzbare Daten erhält. Das LLM sieht nie die echten Werte, aber Ihre Anwendung funktioniert, als wäre nichts passiert.

Was unter der Haube steckt

Regeln + KI, Hand in Hand. Die Kern-Erkennungs-Engine ist deterministisch und regelbasiert — transparent, auditierbar und schnell (unter einer Millisekunde pro Regel). Aber manche Dinge sind mit Regex allein schwer zu erkennen. Dafür gibt es unsere KI-gestützten Detektoren: lokale KI-Modelle für Namen und Orte, Prompt-Injection-Scoring, Toxizitätserkennung, DLP für Quellcode und Zugangsdaten sowie Compliance-Domain-Flagging. Alle KI-Modelle laufen lokal auf unserer Infrastruktur — Ihre Daten werden nicht an einen weiteren Drittanbieter weitergeleitet. Mehr zu unserem Erkennungsansatz finden Sie in unserem Beitrag zu PII-Erkennungs-Best-Practices.

Maskieren und Wiederherstellen. Eines unserer Lieblingsfeatures. Statt Daten dauerhaft zu entfernen, kann Grepture sensible Werte durch Token ersetzen, die Originale in einem sicheren Vault mit TTL speichern und sie dann in der Antwort wieder einsetzen. Das LLM verarbeitet einen sauberen Prompt, und Ihre App bekommt die echten Daten zurück. Keine Information verloren, keine PII exponiert. Einen detaillierten Einblick finden Sie in unserem Maskieren-und-Wiederherstellen-Leitfaden.

Zero-Data-Modus. Aktivieren Sie diesen und Grepture verarbeitet jede Anfrage nur im Arbeitsspeicher. Keine Request-Bodies, keine Response-Bodies, keine Header berühren unseren Speicher. Nur operative Metadaten — Methode, Statuscode, Latenz, welche Regeln ausgelöst wurden — werden protokolliert. Ihre Prompts und Antworten bleiben bei Ihnen.

Streaming-Unterstützung. Grepture verarbeitet Server-Sent Events nativ und detokenisiert gestreamte Chunks in Echtzeit. Kein Puffern der gesamten Antwort, kein Latenz-Nachteil.

Drop-in-Integration. Installieren Sie das SDK, umschließen Sie Ihren bestehenden OpenAI-Client, und fertig. Jede Anfrage fließt durch den Proxy — gescannt, protokolliert und geschützt — ohne Änderungen an Ihrer Anwendungslogik.

npm install @grepture/sdk

Kompatibel mit OpenAI, Anthropic, Google AI, Azure OpenAI, Mistral, Groq, Cohere, AWS Bedrock und jedem OpenAI-kompatiblen Anbieter. Oder verwenden Sie grepture.fetch() als Drop-in-Ersatz für fetch, um jeden HTTP-Aufruf zu schützen.

Das Dashboard

Sie erhalten volle Transparenz über Ihren Traffic:

  • Traffic-Log — Sehen Sie jede Anfrage, welche Regeln gegriffen haben, welche Aktionen ausgeführt wurden und wie lange alles gedauert hat
  • Regel-Builder — Erstellen und verwalten Sie Erkennungsregeln visuell mit Bedingungen, Aktionen und Prioritätsreihenfolge
  • Playground — Testen Sie Anfragen gegen Ihre Regeln, bevor Sie sie produktiv schalten
  • Team-Verwaltung — Laden Sie Ihr Team ein, weisen Sie Rollen zu und verwalten Sie Zugriffsrechte
  • Compliance-Berichte — Generieren Sie PDF-Berichte für Audits (Business-Pläne)
  • Aktivitätslog — Vollständiger Audit-Trail jeder Konfigurationsänderung (Business-Pläne)

Für wen es gedacht ist

  • Engineering-Teams, die KI-gestützte Features ausliefern und Datenlecks verhindern müssen, ohne die Entwicklung zu verlangsamen
  • Compliance-Teams, die Audit-Logs und automatisierte PII-Kontrollen benötigen, um DSGVO-, CCPA- und EU-AI-Act-Anforderungen zu erfüllen
  • Sicherheitsteams, die Transparenz darüber brauchen, welche Daten an KI-Drittanbieter fließen — siehe unseren Leitfaden zum Schutz sensibler Daten in LLM-API-Aufrufen

Erste Schritte

Grepture ist kostenlos für bis zu 1.000 Anfragen pro Monat — keine Kreditkarte erforderlich. Sie erhalten außerdem 25 KI-gestützte Erkennungsanfragen, um die erweiterten Funktionen auszuprobieren. Die Einrichtung dauert unter fünf Minuten: Konfigurieren Sie Ihre Erkennungsrichtlinien im Dashboard, installieren Sie das SDK, und jede KI-Anfrage ist ab diesem Zeitpunkt geschützt.

Der Proxy-Kern und das SDK sind Open Source, sodass Sie bei Bedarf selbst hosten können. Wir hosten in der EU mit 99,98% Uptime.

Wir freuen uns, Grepture mit der Entwickler-Community zu teilen — probieren Sie es aus und sagen Sie uns, was Sie denken.