HAllgemein

Halluzinationen (Hallucinations)

Wenn KI plausible, aber falsche Inhalte erzeugt.
1 Aufrufe

Halluzinationen (Hallucinations) sind Fehler von KI-Systemen, bei denen ein Modell Inhalte erzeugt, die sprachlich plausibel klingen, aber faktisch falsch, frei erfunden oder nicht durch die vorhandenen Daten gedeckt sind. Besonders bei Large Language Models (LLMs) wie ChatGPT wirken solche Aussagen oft überzeugend, weil sie in korrekter Sprache, mit Details und „sicherem Ton“ formuliert werden.

Was bedeutet „Halluzinationen“ bei KI?

Der Begriff beschreibt nicht, dass eine KI „bewusst lügt“, sondern dass sie beim Generieren von Text (oder Code, Bildern, Tabellen) Muster fortsetzt, ohne eine echte Wahrheitsprüfung durchzuführen. Das Modell optimiert typischerweise auf Wahrscheinlichkeit: Es sagt das nächste passende Wort voraus. Wenn Kontext, Training oder Quellenlage unklar sind, kann daraus eine scheinbar logische, aber falsche Antwort entstehen.

Wie funktionieren Halluzinationen – und warum entstehen sie?

  • Wahrscheinlichkeitsbasierte Ausgabe statt Faktencheck: LLMs erzeugen Antworten, die „gut klingen“, nicht zwingend „wahr sind“.
  • Unvollständiger oder missverständlicher Prompt: Fehlt Kontext (Zeitpunkt, Region, Definitionen), füllt das Modell Lücken mit Annahmen.
  • Veraltetes oder begrenztes Wissen: Je nach Modellstand kann Wissen fehlen oder nicht aktuell sein.
  • Konflikt im Kontext: Widersprüchliche Informationen im Chatverlauf erhöhen das Risiko erfundener „Kompromiss-Antworten“.
  • Überkonfidenz durch Formulierung: Sprachliche Sicherheit wird oft fälschlich als inhaltliche Sicherheit interpretiert.

Beispiele aus der Praxis (LLM, ChatGPT, Automation)

  • Erfundene Quellen: Die KI nennt Studien, Bücher oder Links, die real nicht existieren (inkl. Autor, Jahr, DOI).
  • Falsche Zahlen/Statistiken: „Markt wächst um 37%“ ohne belegbare Grundlage oder mit falsch berechneten Werten.
  • Fehlerhafter Code: Code wirkt syntaktisch korrekt, nutzt aber nicht existierende Funktionen/Parameter oder veraltete Bibliotheken.
  • Automation-Workflows: In n8n/Automations-Szenarien erfindet die KI Felder, API-Endpoints oder Response-Strukturen, die es in der echten API nicht gibt.

Warum sind Halluzinationen wichtig?

Halluzinationen sind kritisch, weil sie Vertrauen, Qualität und Sicherheit beeinflussen. In Marketing und Content können sie zu Fehlinformationen und Reputationsschäden führen; in Support- oder Compliance-Kontexten zu falschen Handlungsanweisungen; in Automationen zu fehlerhaften Prozessketten (z. B. falsche Daten in CRM/ERP). Besonders riskant wird es, wenn Ausgaben ungeprüft in Systeme übernommen werden – etwa durch AI Agents (KI-Agenten), die Entscheidungen oder Aktionen automatisiert ausführen.

Wie reduziert man Halluzinationen?

  • RAG / Quellenanbindung: Antworten auf Basis verifizierbarer Dokumente (z. B. interne Wissensdatenbank) erzeugen lassen.
  • Striktere Prompts: „Wenn du es nicht sicher weißt, sag es“ + klare Anforderungen an Quellen und Annahmen.
  • Validierung & Guardrails: Faktencheck, Schema-Validierung (JSON), Tests für Code, Plausibilitätsprüfungen.
  • Human-in-the-Loop: Freigaben für kritische Inhalte/Automationsschritte, bevor sie live gehen.

Merksatz: Eine KI kann sehr überzeugend klingen – Halluzinationen erkennt man nicht an der Sprache, sondern nur an der Prüfung gegen verlässliche Quellen.