DAllgemein

Data Protection Impact Assessment (DPIA) für KI

DSGVO-Folgenabschätzung bei hohem Risiko für personenbezogene Daten

Eine Data Protection Impact Assessment (DPIA) für KI (deutsch: Datenschutz-Folgenabschätzung, DSFA) ist ein formaler DSGVO-Prozess, mit dem du vor dem Einsatz eines KI-Systems prüfst, ob die Verarbeitung personenbezogener Daten voraussichtlich ein hohes Risiko für Betroffene verursacht – und welche technischen sowie organisatorischen Maßnahmen dieses Risiko senken. Sie ist besonders relevant, wenn KI Entscheidungen unterstützt, Profile erstellt oder viele Daten automatisiert auswertet.

Was bedeutet DPIA/DSFA im KI-Kontext?

„DPIA“ ist der englische Begriff, „DSFA“ der deutsche. Im KI-Umfeld geht es nicht nur um klassische Datenschutzfragen (Zweck, Rechtsgrundlage, Speicherfristen), sondern auch um KI-spezifische Risiken: ungewollte Ableitung sensibler Informationen, Intransparenz, Bias/Benachteiligung, Datenabfluss über Prompts oder Logs sowie schwer erklärbare automatisierte Entscheidungen. Gerade bei Generative KI (Generative AI), ChatGPT-ähnlichen Anwendungen oder Large Language Model (LLM)-Workflows ist eine DPIA häufig der wichtigste Nachweis, dass du Risiken systematisch identifiziert und mitigiert hast.

Wie funktioniert eine DPIA für KI? (typische Schritte)

  • 1) Verarbeitung beschreiben: Welche Daten werden verarbeitet (z. B. Kundentickets, HR-Daten, Gesundheitsdaten)? Welche Systeme/Provider, Schnittstellen, Regionen (Stichwort Data Residency (Datenresidenz))?
  • 2) Zweck & Rechtsgrundlage prüfen: Wofür wird die KI genutzt (Support-Automation, Recruiting, Betrugserkennung)? Ist die Verarbeitung erforderlich und verhältnismäßig?
  • 3) Risiken bewerten: Eintrittswahrscheinlichkeit und Schadensausmaß für Betroffene. KI-typisch sind u. a. Profiling, Fehlklassifikationen, Halluzinationen, unzulässige Weiterverarbeitung oder Re-Identifikation.
  • 4) Maßnahmen definieren: z. B. PII Redaction (PII-Schwärzung), Data Loss Prevention (DLP) für KI, Zugriffskontrollen, Verschlüsselung, strikte Logging-Policies, Guardrails (KI-Leitplanken), Human Review (HITL), Datenminimierung und klare Löschkonzepte.
  • 5) Restrisiko & Freigabe: Wenn das Restrisiko hoch bleibt, kann eine Konsultation der Aufsicht nötig sein. Ergebnis: dokumentierte Entscheidung inkl. Verantwortlichkeiten.

Wann brauchst du eine DPIA bei KI?

Typische Trigger sind: systematische umfangreiche Bewertung/Profiling, Verarbeitung besonderer Kategorien (z. B. Gesundheit), großskalige Überwachung, innovative Technologien mit unklaren Auswirkungen oder wenn ein KI-System Menschen „spürbar“ betrifft (z. B. Kredit, Versicherung, HR). Auch LLM-Chatbots, die interne Wissensdaten per RAG (Retrieval-Augmented Generation) nutzen, können DPIA-pflichtig sein, wenn vertrauliche oder personenbezogene Inhalte in Prompts, Kontextfenstern oder Vektorspeichern landen (z. B. Embeddings in einer Vektordatenbank (Vector Database)).

Beispiele aus der Praxis

  • HR-Screening: KI bewertet Bewerbungen. Risiken: Diskriminierung, Intransparenz, falsche Ablehnungen. Maßnahmen: erklärbare Kriterien, Bias-Tests, Human-in-the-Loop, kurze Speicherfristen.
  • Kundenservice-Chatbot: LLM fasst Tickets zusammen und schlägt Antworten vor. Risiken: Datenabfluss, falsche Aussagen, ungewollte Speicherung. Maßnahmen: PII-Filter, Rollenrechte, Prompt-Policies, Logging-Minimierung, sichere Provider-Verträge.
  • Automatisierung mit Tools: KI-Agenten in n8n oder Automatisierung (Automation) greifen auf CRM/ERP zu. Risiken: überbreite Berechtigungen, Tool-Missbrauch. Maßnahmen: Least Privilege, Tool-Sandboxing, Freigabe-Workflows, Monitoring.

Warum ist eine DPIA für KI wichtig?

Eine gute DPIA reduziert reale Datenschutz- und Sicherheitsrisiken, schafft Audit-Fähigkeit und unterstützt AI Governance. Sie hilft außerdem, Anforderungen aus angrenzenden Regimen (z. B. EU AI Act) strukturiert mitzudenken – auch wenn DPIA und KI-Risikobewertung nicht identisch sind.