|Ben @ Grepture|Compliance

DSGVO-konforme KI-Entwicklung: Praxisleitfaden

KI-Features DSGVO-konform bauen — Datensparsamkeit, Auftragsverarbeitung, PII-Redaktion und aktuelle Durchsetzungstrends 2026.

Die DSGVO hat LLMs nicht vorhergesehen — aber sie greift trotzdem

Als die DSGVO 2018 in Kraft trat, hat niemand Kundendaten an Large Language Models geschickt. Aber die Verordnung ist technologieneutral konzipiert und passt erstaunlich gut auf KI-Workloads — manchmal unbequem gut.

Jeder Prompt mit personenbezogenen Daten ist ein Verarbeitungsvorgang. Jeder LLM-Anbieter ist ein Auftragsverarbeiter. Jede gecachte Antwort mit Nutzerkontext sind gespeicherte personenbezogene Daten. Wer KI-Features in Europa baut — oder europäische Nutzer bedient — kommt an DSGVO-Konformität nicht vorbei.

Das Problem: Die meisten DSGVO-Leitfäden für KI sind von Juristen für Juristen geschrieben. Dieser Leitfaden ist die Entwickler-Version. Was konkret implementiert werden muss, warum und wie.

Regulatorische Lage 2026

Die DSGVO-Durchsetzung bei KI hat sich deutlich verschärft:

  • Italiens Garante hat ChatGPT 2023 vorübergehend verboten und Anfang 2025 eine Strafe von 15 Millionen Euro gegen OpenAI verhängt
  • Frankreichs CNIL hat dedizierte KI-Leitlinien veröffentlicht und branchenspezifische Prüfungen von KI-gestütztem Kundenservice gestartet
  • Deutschlands Datenschutzbehörden (Datenschutzkonferenz) gehören zu den aktivsten weltweit — Landes-DPAs haben verbindliche Hinweise zu KI am Arbeitsplatz und im öffentlichen Sektor erlassen
  • Der EDSA (Europäischer Datenschutzausschuss) hat 2024 seine Stellungnahme zu KI-Modellen und DSGVO veröffentlicht — Modelle, die auf rechtswidrig verarbeiteten personenbezogenen Daten trainiert wurden, können selbst gegen die DSGVO verstoßen

Parallel dazu fügt das KI-Gesetz der EU (EU AI Act) eine zweite Compliance-Ebene hinzu. Hochrisiko-KI-Systeme unterliegen ab August 2026 zusätzlichen Anforderungen — Konformitätsbewertungen, Qualitätsmanagement, menschliche Aufsicht. Einen detaillierten Überblick gibt unser EU-AI-Act-Compliance-Leitfaden.

Entscheidend: DSGVO und KI-Gesetz sind keine Alternativen. Sie kumulieren. Beides muss erfüllt werden.

Datensparsamkeit: das Prinzip, das alles verändert

DSGVO Artikel 5 Absatz 1 Buchstabe c verlangt, dass personenbezogene Daten „dem Zweck angemessen und erheblich sowie auf das für die Zwecke der Verarbeitung notwendige Maß beschränkt" sind. Das ist das Prinzip der Datensparsamkeit — und es hat konkrete Auswirkungen auf KI-Features.

Nur senden, was das Modell braucht. Wenn ein Nutzer den KI-Assistenten nach seinem Bestellstatus fragt, braucht das Modell nicht den vollständigen Namen, die E-Mail-Adresse, Telefonnummer und Lieferadresse. Alles streichen, was für die Aufgabe nicht erforderlich ist.

// Vorher: kompletter Kontext-Dump
const prompt = `Fasse den Bestellstatus zusammen für:
  Name: ${user.name}
  E-Mail: ${user.email}
  Telefon: ${user.phone}
  Bestellung #${order.id}: ${order.status}, versendet am ${order.shippedDate}
  Adresse: ${order.shippingAddress}`;

// Nachher: nur notwendige Daten
const prompt = `Fasse den Bestellstatus zusammen:
  Bestellung #${order.id}: ${order.status}, versendet am ${order.shippedDate}`;

In der Praxis werden oft ganze Datenbankeinträge in Prompts kopiert, weil es einfacher ist als Felder gezielt auszuwählen. Datensparsamkeit erfordert bewusste Prompt-Konstruktion.

PII redaktieren, bevor Daten die eigene Infrastruktur verlassen. Auch bei sorgfältigem Prompt-Design enthalten nutzergenerierte Inhalte (Support-Tickets, Chat-Nachrichten, Formulareingaben) unerwartete personenbezogene Daten. Automatisierte Erkennung fängt auf, was manuelles Prompt-Design übersieht. Unser Leitfaden für PII-Erkennung behandelt Erkennungsstrategien im Detail.

Antworten mit personenbezogenen Daten nicht ohne Aufbewahrungsrichtlinie cachen. Wenn LLM-Antworten aus Performance-Gründen gecacht werden, enthalten diese Caches verarbeitete personenbezogene Daten. TTLs setzen. Löschen, wenn nicht mehr benötigt.

Auftragsverarbeitung: der Papierkram, der zählt

Gemäß DSGVO Artikel 28 ist beim Versand personenbezogener Daten an einen Auftragsverarbeiter (jeden LLM-Anbieter) ein Auftragsverarbeitungsvertrag (AVV) erforderlich.

Alle großen LLM-Anbieter bieten einen an:

AnbieterAVV verfügbarZero-Retention-OptionEU-Datenresidenz
OpenAIJa (über API-Bedingungen)Ja (API, nicht ChatGPT)Nein (US-Verarbeitung)
AnthropicJaJa (API)Nein (US-Verarbeitung)
Google (Vertex AI)JaKonfigurierbarJa (eu-west-Regionen)
Azure OpenAIJaKonfigurierbarJa (EU-Regionen)
AWS BedrockJaKonfigurierbarJa (eu-west-1 etc.)
Mistral (La Plateforme)JaJaJa (EU-nativ)

Was im AVV geprüft werden muss:

  1. Unterauftragsverarbeiter — Wer hat noch Zugriff auf die Daten? Die meisten Anbieter nutzen Cloud-Unterauftragsverarbeiter (AWS, GCP, Azure). Der AVV sollte diese auflisten.
  2. Datenstandort — Wo werden Daten verarbeitet und gespeichert? Bei reinen EU-Anforderungen sind US-basierte Anbieter problematisch, sofern sie keine EU-Regionen anbieten.
  3. Aufbewahrung und Löschung — Wie lange speichert der Anbieter die Daten? Zero-Retention-API-Optionen existieren, müssen aber explizit aktiviert werden.
  4. Zweckbindung — Der AVV sollte bestätigen, dass Daten nur zur Erbringung des Dienstes verarbeitet werden, nicht für Modelltraining.
  5. Prüfungsrechte — DSGVO Artikel 28 Absatz 3 Buchstabe h gibt das Recht zur Prüfung des Auftragsverarbeiters. In der Praxis bedeutet das SOC-2-Berichte und Compliance-Zertifizierungen.

Das Problem der Drittlandübermittlung

Der Versand personenbezogener Daten an einen US-basierten LLM-Anbieter ist eine Drittlandübermittlung gemäß DSGVO Kapitel V. Nach dem Schrems-II-Urteil, das den Privacy Shield für ungültig erklärte, stützen sich Übermittlungen in die USA auf:

  • EU-US Data Privacy Framework (DPF) — 2023 angenommen, gewährt Angemessenheitsstatus für zertifizierte US-Unternehmen. OpenAI, Google, Microsoft und Amazon sind zertifiziert. Das DPF steht aber unter laufender rechtlicher Anfechtung.
  • Standardvertragsklauseln (SCCs) — Die Rückfalllösung. Die meisten AVVs enthalten SCCs.
  • EU-basierte Verarbeitung — Die sauberste Lösung. Azure OpenAI in West Europe, AWS Bedrock in eu-west-1 oder Mistrals EU-native Plattform vermeiden das Übermittlungsproblem vollständig.

Wer maximale Rechtssicherheit braucht, verarbeitet Daten innerhalb der EU. Ein Proxy, der Traffic über EU-Infrastruktur leitet — bevor er irgendeinen Anbieter erreicht — vereinfacht das erheblich.

Rechtsgrundlage: welche gilt?

DSGVO Artikel 6 verlangt eine Rechtsgrundlage für jeden Verarbeitungsvorgang. Für KI-Features sind drei relevant:

Berechtigtes Interesse (Artikel 6 Absatz 1 Buchstabe f)

Die häufigste Grundlage für KI-Features. Es besteht ein berechtigtes Interesse an der Bereitstellung KI-gestützter Dienste. Allerdings muss eine Interessenabwägung durchgeführt werden, die das eigene Interesse gegen die Rechte der betroffenen Person abwägt.

Eine Interessenabwägung für KI-Features sollte dokumentieren:

  • Welche personenbezogenen Daten in Prompts verarbeitet werden
  • Warum die Verarbeitung erforderlich ist (nicht nur praktisch)
  • Welche Schutzmaßnahmen bestehen (PII-Redaktion, Zero-Retention, Verschlüsselung)
  • Warum die Interessen der betroffenen Person nicht überwiegen

Vertragserfüllung (Artikel 6 Absatz 1 Buchstabe b)

Wenn das KI-Feature Teil eines Dienstes ist, für den der Nutzer einen Vertrag abgeschlossen hat (z.B. ein KI-Assistent in einem SaaS-Produkt), kann Vertragserfüllung herangezogen werden. Stärker als berechtigtes Interesse, aber enger — deckt nur Verarbeitungen ab, die für die Erbringung des vertraglich vereinbarten Dienstes erforderlich sind.

Einwilligung (Artikel 6 Absatz 1 Buchstabe a)

Einwilligung funktioniert, bringt aber operativen Aufwand mit sich. Sie muss freiwillig, spezifisch, informiert und widerruflich sein. Bei Widerruf muss die Verarbeitung der Daten in KI-Aufrufen sofort eingestellt werden. Für die meisten B2B-SaaS-Features sind berechtigtes Interesse oder Vertragserfüllung praktikabler.

Besondere Kategorien (Artikel 9): Wenn Prompts Gesundheitsdaten, biometrische Daten, Daten zur rassischen oder ethnischen Herkunft oder andere besondere Kategorien enthalten könnten, ist eine ausdrückliche Einwilligung oder eine andere Ausnahme nach Artikel 9 erforderlich. Das betrifft häufig KI-Features in Gesundheitswesen, HR und Finanzdienstleistungen.

Technische Maßnahmen zum Nachweis der Konformität

DSGVO Artikel 32 verlangt „geeignete technische und organisatorische Maßnahmen". Für KI-Features bedeutet das:

1. PII-Redaktion an der Systemgrenze

Personenbezogene Daten aus Prompts entfernen, bevor sie die eigene Infrastruktur verlassen. Das ist die wirkungsvollste technische Maßnahme für DSGVO-Konformität — sie macht aus einer compliance-komplexen Datenübermittlung eine risikoarme.

Redaktionsansätze:

  • Irreversible Redaktion — PII durch [REDAKTIERT] ersetzen. Einfach, sicher, aber die KI-Antwort verliert Personalisierung.
  • Reversible Redaktion (Maskieren und Wiederherstellen) — PII durch Tokens ersetzen, Originale in einem Vault speichern, in der Antwort wiederherstellen. Das Modell sieht nie echte Daten, der Nutzer bekommt personalisierte Ausgaben. Mehr dazu in unserem Maskieren-und-Wiederherstellen-Leitfaden.

2. Audit-Logging

Es muss nachweisbar sein, welche Daten wann und wie geschützt verarbeitet wurden. Zu protokollieren:

  • Welche PII erkannt und wie behandelt wurde (redaktiert, maskiert, blockiert)
  • Welcher LLM-Anbieter die Anfrage verarbeitet hat
  • Ob Zero-Retention aktiviert war
  • Zeitstempel der Antworten zur Durchsetzung der Aufbewahrungsrichtlinie

Ein Audit-Trail macht Prüfungen durch Auftragsverarbeiter und Anfragen von Aufsichtsbehörden handhabbar statt panikauslösend.

3. Zero-Retention-API-Konfiguration

Zero-Retention- / No-Training-Optionen bei jedem LLM-Anbieter aktivieren. Das ist Grundvoraussetzung:

  • OpenAI API: Daten werden seit März 2023 standardmäßig nicht mehr für Training verwendet. In den Organisationseinstellungen verifizieren.
  • Anthropic API: Kein Training auf API-Daten standardmäßig.
  • Azure OpenAI: Daten zur Missbrauchsüberwachung werden standardmäßig 30 Tage gespeichert. Kann für genehmigte Kunden deaktiviert werden.

4. Verschlüsselung bei Übertragung und Speicherung

TLS 1.2+ für alle API-Aufrufe (wird von allen großen Anbietern erzwungen). Gespeicherte Prompts, Antworten und Logs verschlüsseln. Das ist Baseline — nicht differenzierend, aber erforderlich.

5. Zugriffskontrollen

Den Zugang zu KI-Logs, Prompts und Antworten mit personenbezogenen Daten einschränken. Rollenbasierter Zugriff nach dem Prinzip der minimalen Rechte. Zugriffe für Prüfungszwecke protokollieren.

Betroffenenrechte und KI

Die DSGVO gewährt betroffenen Personen Rechte, die auch für KI-Verarbeitung gelten:

  • Auskunftsrecht (Artikel 15) — Nutzer können Auskunft verlangen, welche personenbezogenen Daten an KI-Anbieter gesendet wurden. Wer Prompts protokolliert, muss diese pro Nutzer abrufen können.
  • Recht auf Löschung (Artikel 17) — Nutzer können Löschung verlangen. Das umfasst gecachte Antworten, protokollierte Prompts und jeglichen gespeicherten Kontext. Wenn Daten an einen LLM-Anbieter gesendet wurden, muss auch der Anbieter löschen (was Zero-Retention vereinfacht).
  • Widerspruchsrecht (Artikel 21) — Nutzer können der Verarbeitung auf Basis berechtigten Interesses widersprechen. Die Verarbeitung muss dann eingestellt werden, es sei denn, es liegen zwingende berechtigte Gründe vor.
  • Recht auf Erklärung (Artikel 22) — Wenn KI Entscheidungen mit rechtlicher Wirkung oder erheblicher Beeinträchtigung trifft (Kreditvergabe, Einstellung), haben Nutzer das Recht auf aussagekräftige Informationen über die Logik, Tragweite und Auswirkungen.

Die praktische Konsequenz: Die KI-Pipeline braucht Fähigkeiten zur nutzerbezogenen Datenabfrage und -löschung. Früh einbauen — nachträgliches Einrichten ist aufwändig.

Compliance-Checkliste für Entwicklungsteams

Vor dem Produktiv-Deployment von KI-Features:

  • AVV abgeschlossen mit jedem genutzten LLM-Anbieter
  • Rechtsgrundlage dokumentiert (Interessenabwägung für berechtigtes Interesse, oder Vertrag/Einwilligung)
  • Datensparsamkeit — Prompts enthalten nur notwendige Daten
  • PII-Redaktion — automatisierte Erkennung und Behandlung bevor Daten die eigene Infrastruktur verlassen
  • Zero-Retention aktiviert bei allen Anbieter-Konten
  • EU-Datenresidenz evaluiert (für bestimmte Branchen/Jurisdiktionen verpflichtend)
  • Audit-Logging — was wurde gesendet, wann, wie geschützt
  • Aufbewahrungsrichtlinie — gecachte Antworten und Logs haben TTLs
  • Betroffenenrechte — nutzerbezogene Datenabfrage und -löschung möglich
  • Datenschutz-Folgenabschätzung (DSFA) — erforderlich für risikoreiche Verarbeitung gemäß Artikel 35
  • Verzeichnis von Verarbeitungstätigkeiten — aktualisiert um KI-Verarbeitungsvorgänge

Wie Grepture hilft

DSGVO-konforme KI von Grund auf zu implementieren bedeutet: PII-Erkennung, Redaktionslogik, Audit-Logging und Aufbewahrungsrichtlinien bauen — alles bevor das erste KI-Feature entwickelt wird.

Grepture übernimmt das auf der Proxy-Ebene. Jeder API-Aufruf an einen LLM-Anbieter fließt durch Grepture, wo personenbezogene Daten erkannt und redaktiert oder maskiert werden, bevor sie den Anbieter erreichen. Jede Anfrage wird protokolliert — was erkannt und wie behandelt wurde — und liefert damit den Audit-Trail, den die DSGVO verlangt.

Da es auf Netzwerkebene arbeitet, ist keine Integration pro Service oder Team nötig. Ein Proxy deckt jeden KI-Aufruf der gesamten Organisation ab. Für Teams mit Anforderungen an EU-Datenresidenz läuft Greptures Managed Service in Frankfurt.

Wichtigste Erkenntnisse

  • Die DSGVO gilt für jeden KI-API-Aufruf mit personenbezogenen Daten — jeder Prompt ist ein Verarbeitungsvorgang mit einem Auftragsverarbeiter.
  • Datensparsamkeit ist die wirkungsvollste Compliance-Maßnahme — personenbezogene Daten aus Prompts entfernen, bevor sie die eigene Infrastruktur verlassen.
  • AVVs mit jedem LLM-Anbieter abschließen und Zero-Retention, Unterauftragsverarbeiter-Listen und Datenstandort prüfen.
  • Das KI-Gesetz der EU kumuliert mit der DSGVO — Hochrisiko-KI-Systeme unterliegen ab August 2026 zusätzlichen Anforderungen.
  • Audit-Logging und nutzerbezogene Datenabfrage früh einbauen — Betroffenenanfragen kommen, und nachträgliches Einrichten ist teuer.