LAllgemein

LLM Firewall

Sicherheitslayer gegen Prompt-Injection, Datenabfluss und Policy-Verstöße.

Eine LLM Firewall ist ein Sicherheitslayer für Anwendungen mit Large Language Model (LLM) (z. B. ChatGPT), der Eingaben und Ausgaben eines Modells kontrolliert, um Prompt-Injection, Datenabfluss und Policy-Verstöße zu verhindern. Sie sitzt typischerweise zwischen User, Tools/Backends und dem Modell und setzt technische sowie organisatorische Regeln durch.

Was bedeutet „LLM Firewall“?

Der Begriff lehnt sich an klassische Firewalls an: Statt Netzwerkpakete zu filtern, bewertet eine LLM Firewall Prompts, Kontext (z. B. RAG-Dokumente) und Modellantworten. Ziel ist, riskante Inhalte zu blockieren, zu entschärfen (Redaction/Rewrite) oder für Prüfprozesse zu markieren. In der Praxis überschneidet sich der Begriff mit Guardrails (KI-Leitplanken), Prompt Guard / Prompt Firewall und DLP-Ansätzen für KI.

Wie funktioniert eine LLM Firewall?

Warum ist eine LLM Firewall wichtig?

LLM-Systeme sind besonders anfällig, weil sie natürlichsprachliche Anweisungen „ausführen“ und dabei Kontext aus vielen Quellen verarbeiten. Ohne Schutz kann ein Angreifer z. B. über eine Prompt-Injection erreichen, dass interne Richtlinien offengelegt werden (Prompt Leakage), vertrauliche Daten aus dem Kontext in die Antwort gelangen oder ein Agent gefährliche Aktionen via Tools ausführt. Zusätzlich helfen LLM Firewalls bei Governance- und Compliance-Zielen, etwa im Zusammenspiel mit AI Governance, Datenschutz (DSGVO/GDPR) & KI oder internen Sicherheitsrichtlinien.

Beispiele aus der Praxis

  • Support-Chat mit Wissensdatenbank: Ein Nutzer versucht, den Bot zur Ausgabe interner Dokumente zu bringen. Die Firewall erkennt Injection-Muster, trennt System- von User-Instruktionen und schwärzt personenbezogene Daten aus der Antwort.
  • Agent in Automationen (z. B. n8n): Der Agent soll Tickets erstellen, darf aber keine Kundendaten an externe Tools senden. Die Firewall blockiert Tool-Calls mit PII und erzwingt Freigaben (Human-in-the-Loop) bei riskanten Aktionen.
  • Enterprise-LLM mit Toolzugriff: Bei verdächtigen Abfragen (z. B. „Exportiere alle Datensätze“) greift Policy Enforcement: Scope wird reduziert, Abfrage wird abgelehnt oder es wird nur aggregiert ausgegeben.

Was kostet eine LLM Firewall?

Die Kosten hängen von Architektur (Cloud/On-Prem), Traffic (Tokens/Requests), Funktionsumfang (DLP, Tool-Policies, Monitoring) und Integrationsaufwand ab. In der Praxis entstehen Kosten meist durch (a) zusätzliche Inferenz/Classifier-Calls, (b) Engineering für Policies und Tests sowie (c) Betrieb/Monitoring. Oft lohnt sich der Einsatz besonders bei produktiven, tool-fähigen LLM-Anwendungen mit sensiblen Daten oder Compliance-Anforderungen.