Zusammenfassung
LLM Guard ist ein Open-Source-Python-Toolkit mit über 35 Scannern, die PII, Toxizität, Bias, Code-Erkennung, Prompt Injection und mehr abdecken. Es ist umfassend, erfordert aber erhebliche Infrastruktur und Konfigurationsaufwand.
Grepture ist ein API-Security-Proxy mit Fokus auf PII-Schwärzung, Secret-Scanning und reversible Schwärzung. Es arbeitet auf Netzwerkebene, erfordert keine Code-Änderungen und ist schnell.
LLM Guard bietet Breite — mehr Scanner-Typen für mehr Bedrohungskategorien. Grepture bietet Tiefe und Geschwindigkeit — schnelle PII- und Secret-Erkennung mit Mask-and-Restore, einsatzbereit in Minuten.
Auf einen Blick
| Grepture | LLM Guard | |
|---|---|---|
| Architektur | Netzwerk-Proxy | Python-Scanner-Chain |
| Scanner-Anzahl | PII (50+ Muster) + Secrets + Prompt Injection | 35+ Scanner |
| Erkennungsgeschwindigkeit | <2ms (Regex), niedrige Latenz (AI-Modelle) | 100ms–5s pro Scanner |
| Reversible Schwärzung | Natives Mask-and-Restore | Nicht unterstützt |
| Secret-Scanning | Speziell entwickelt (30+ Credential-Typen) | Einfaches Regex |
| Toxizitätserkennung | Ja (Business-Plan) | Ja (mehrere Scanner) |
| Bias-Erkennung | Nein | Ja |
| Code-Erkennung | Nein | Ja |
| Sprachunterstützung | Jede Sprache (HTTP-Ebene) | Nur Python |
| Hosting | Managed SaaS (EU) oder Self-Hosting | Nur Self-Hosting |
| Einrichtungszeit | Minuten | Stunden bis Tage |
| Wartung | Verwaltete Updates | Manuelle Modell-Updates |
| Open Source | Ja (Proxy-Core) | Ja (MIT-Lizenz) |
Architektur: Scanner-Chain vs. Netzwerk-Proxy
LLM Guard funktioniert als Scanner-Chain. Prompts und Ausgaben werden durch eine Reihe von Scannern geleitet, die jeweils auf einen anderen Bedrohungstyp prüfen — PII, Toxizität, Prompt Injection, Code, verbotene Themen usw. Jeder Scanner führt ein separates Modell oder einen Analyseschritt aus.
from llm_guard import scan_prompt
from llm_guard.input_scanners import Anonymize, Toxicity, PromptInjection
scanners = [Anonymize(), Toxicity(), PromptInjection()]
sanitized, results, valid = scan_prompt(scanners, prompt)
Grepture ist ein Proxy auf dem Netzwerkpfad. Jede HTTP-Anfrage wird automatisch durchgeleitet — gescannt, protokolliert und geschwärzt, ohne Integration pro Aufruf.
import OpenAI from "openai";
import { clientOptions } from "@grepture/sdk";
const openai = new OpenAI(clientOptions());
// Alle Anfragen sind jetzt geschützt — keine Scanner-Konfiguration nötig
Was das bedeutet: LLM Guard erfordert explizite Integration an jedem Code-Pfad. Grepture erfasst alles auf Netzwerkebene, einschließlich Aufrufe von Drittanbieter-Bibliotheken und AI-Agents.
Scanner-Abdeckung
Dies ist LLM Guards stärkstes Differenzierungsmerkmal. Es bietet über 35 Scanner in Kategorien, die weit über PII hinausgehen:
- Inhaltssicherheit: Toxizität, Bias, verbotene Unterthemen, Kauderwelsch, Spracherkennung
- Sicherheit: Prompt Injection, Jailbreak-Erkennung, Regex-Muster
- Datenschutz: PII-Anonymisierung, sensible Themen, unsichtbarer Text
- Code: Code-Erkennung, URL-Erreichbarkeit
- Ausgabevalidierung: Relevanz, faktische Konsistenz, JSON/XML-Validierung, Lesezeit, keine Verweigerung
Grepture konzentriert sich auf den Datenschutzkern: PII-Erkennung (50+ Regex-Muster + AI-Modelle), Secret-Scanning (30+ Credential-Typen), Prompt-Injection-Erkennung und reversible Schwärzung. Der Business-Plan fügt Toxizitäts-Scanning, Data Loss Prevention und Compliance-Flagging hinzu — alles mit lokal gehosteten AI-Modellen.
Fazit: Wenn Sie Toxizitätsbewertung, Bias-Erkennung, Code-Filterung oder Ausgabevalidierung benötigen, deckt LLM Guard mehr ab. Wenn Ihr Hauptanliegen darin besteht, PII und Secrets daran zu hindern, externe AI-Anbieter zu erreichen, ist Grepture genau dafür gebaut.
Performance
Hier unterscheiden sich die Architekturen erheblich.
LLM Guard Scanner sind modellbasiert. Jeder Scanner lädt ein separates Modell (typischerweise Transformer-basiert) und führt Inferenz bei jeder Anfrage durch. Das Scannen eines Prompts durch 5–10 Scanner kann 500ms–5 Sekunden Latenz pro Anfrage hinzufügen, abhängig von Hardware und Scanner-Konfiguration.
Grepture verwendet Regex-Erkennung, die in unter 2ms läuft. Die AI-Modelle des Pro-Plans (für Namen, Organisationen, Adressen) fügen minimale Latenz hinzu, da sie auf optimierter Infrastruktur laufen. Die gesamte zusätzliche Latenz pro Anfrage liegt typischerweise unter 10ms.
Für Produktions-Workloads mit hohem Durchsatz — Chatbots, Agent-Frameworks, RAG-Pipelines — macht dieser Unterschied einen spürbaren Unterschied. Ein 2-Sekunden-Scanning-Overhead bei jedem LLM-Aufruf erzeugt merkbare Verzögerungen für Endnutzer.
Reversible Schwärzung
Grepture unterstützt natives Mask-and-Restore. PII wird auf dem Weg nach außen durch Tokens ersetzt, die AI verarbeitet bereinigten Text, und die Originalwerte werden in der Antwort wiederhergestellt. Das Modell sieht niemals echte Daten; Ihre Anwendung erhält vollständige, personalisierte Antworten.
LLM Guard unterstützt keine reversible Schwärzung. Der Anonymize-Scanner ersetzt PII durch Platzhalter, aber es gibt keinen eingebauten Mechanismus zur Wiederherstellung der Originalwerte in der Modellantwort. Für Anwendungsfälle wie Kundensupport, Dokumentenerstellung oder personalisierte Zusammenfassungen müssten Sie eine eigene Wiederherstellungsschicht bauen.
Secret-Scanning
Grepture enthält speziell entwickeltes Secret-Scanning als Kernfunktion mit Mustern für API Keys, Bearer Tokens, AWS Credentials, Datenbank-Verbindungsstrings, private Schlüssel und über 30 weitere Credential-Typen. Dies ist entscheidend, um durchgesickerte Credentials in Prompts und RAG-Chunks zu erkennen.
LLM Guard enthält einen Secrets-Scanner mit einfachen Regex-Mustern. Er deckt gängige Formate ab, ist aber nicht so umfassend wie ein dediziertes Secret-Scanning-Tool.
Hosting und Wartung
LLM Guard ist nur als Self-Hosting verfügbar. Der Produktionsbetrieb erfordert:
- GPU-Rechenleistung für modellbasierte Scanner (Toxizität, Prompt Injection, Anonymisierung)
- Modell-Downloads und Versionsverwaltung
- Scanner-Tuning und Schwellenwert-Konfiguration
- Eigene Logging- und Monitoring-Infrastruktur
- Skalierung für Produktionsdurchsatz
Die Entwicklungsgeschwindigkeit von LLM Guard hat nachgelassen — das Projekt erhält weniger Updates als in seinen Anfangstagen. Das ist relevant für die langfristige Wartung.
Grepture bietet Managed SaaS (EU-gehostet in Frankfurt) ohne eigene Infrastruktur. Updates, Skalierung, Modell-Hosting und Monitoring werden übernommen. Der Proxy ist außerdem Open Source für Self-Hosting bei Bedarf.
Für wen LLM Guard am besten geeignet ist
- Teams, die maximale Scanner-Abdeckung benötigen — Toxizität, Bias, Code-Erkennung, Ausgabevalidierung
- Reine Python-Anwendungen mit bestehender LLM Guard-Integration
- Organisationen, die bereit sind, in das Tuning von Scanner-Schwellenwerten und Modell-Hosting zu investieren
- Forschungsteams, die umfassende AI-Safety-Pipelines bauen, bei denen Breite am wichtigsten ist
Für wen Grepture am besten geeignet ist
- Teams, die schnelle PII- und Secret-Erkennung mit minimalem Latenz-Impact benötigen
- Alle, die reversible Schwärzung (Mask-and-Restore) als Kernfunktion brauchen
- Mehrsprachige Anwendungen (nicht nur Python)
- Teams, die ein Zero-Ops-Deployment wollen — Managed SaaS mit integriertem Dashboard und Audit-Trail
- Organisationen, die mehrere AI-Anbieter nutzen und konsistente Sicherheit auf Netzwerkebene benötigen
- Produktions-Workloads, bei denen Performance zählt — unter 10ms zusätzliche Latenz statt Sekunden
FAQ
Ist LLM Guard kostenlos?
LLM Guard ist Open Source (MIT-Lizenz), erfordert aber erhebliche Infrastruktur (GPU-Rechenleistung für Scanner-Modelle) und Engineering-Zeit. Eine kommerzielle API ist ebenfalls verfügbar.
Kann LLM Guard reversible Schwärzung durchführen?
Nein. LLM Guard ersetzt PII durch Platzhalter, unterstützt aber nicht die Wiederherstellung der Originalwerte in Antworten. Sie müssten die Wiederherstellungslogik selbst implementieren.
Ist Grepture langsamer, weil es Regex statt AI-Modellen verwendet?
Nein — Regex-Erkennung läuft in unter 2ms, was um Größenordnungen schneller ist. Greptures Pro-Plan enthält außerdem AI-Modelle für unstrukturierte PII, die auf Grepture-Infrastruktur mit minimaler zusätzlicher Latenz laufen.
Erkennt LLM Guard Secrets und API Keys?
LLM Guard enthält einen einfachen Secrets-Scanner mit Regex-Mustern. Grepture bietet speziell entwickeltes Scanning für über 30 Credential-Typen.
Kann ich beide Tools zusammen verwenden?
Ja. Grepture arbeitet auf Netzwerkebene; LLM Guard auf Anwendungsebene. Sie könnten LLM Guard für spezialisierte Scanner (Toxizität, Bias) und Grepture für PII-Schwärzung, Secret-Scanning und Audit-Logging verwenden.