LAllgemein

LLM-as-a-Judge

LLM bewertet Antworten anderer Modelle nach definierten Kriterien

LLM-as-a-Judge bezeichnet ein Bewertungsverfahren, bei dem ein Large Language Model die Antworten anderer Modelle (oder verschiedener Prompt-/System-Varianten) nach vorher festgelegten Kriterien beurteilt. Das „Judge“-Modell vergibt z. B. Scores, wählt eine beste Antwort aus oder liefert strukturierte Feedbackpunkte – ähnlich wie ein automatisierter Gutachter für Qualität, Korrektheit und Stil.

Was bedeutet LLM-as-a-Judge?

Wörtlich: „Ein LLM als Richter“. Gemeint ist, dass ein LLM nicht (nur) Inhalte generiert, sondern als Evaluator eingesetzt wird. Es bewertet Outputs anhand eines Rubrics (Bewertungsraster) und kann damit menschliche Reviews teilweise ersetzen oder skalieren – etwa für Produktivsysteme, Prompt-Optimierung oder Benchmarking.

Wie funktioniert LLM-as-a-Judge?

  • 1) Kriterien definieren: z. B. Faktentreue, Vollständigkeit, Verständlichkeit, Tonalität, Sicherheits-Policy, Format (JSON), Quellenangaben.
  • 2) Testfälle erstellen: Prompts + erwartete Eigenschaften (oft mit Golden Dataset und optionaler Ground Truth).
  • 3) Kandidaten generieren: mehrere Antworten (Modelle, Prompts, Temperaturen) erzeugen, z. B. mit ChatGPT oder anderen Large Language Model (LLM)-Varianten.
  • 4) Judge-Prompt/Rubric anwenden: Das Judge-LLM erhält Aufgabe, Kriterien und Kandidatenantwort(en). Häufig wird ein pairwise-Vergleich („A vs. B“) genutzt, weil er stabiler sein kann als absolute Scores.
  • 5) Ergebnis strukturieren: Ausgabe als Score + Begründung, idealerweise via Structured Outputs (JSON Schema) und anschließender Schema Validation (JSON-Schema-Validierung).
  • 6) Aggregieren & entscheiden: Mittelwerte, Mehrheitsentscheid, Konfidenzlogik; Einsatz in Evaluation (Eval) & Benchmarking oder Live-Routing (z. B. Model-Auswahl).

Wofür wird LLM-as-a-Judge eingesetzt?

Beispiel (praxisnah)

Du betreibst einen Support-Bot mit n8n-Automatisierung. Zwei Prompts liefern unterschiedliche Antworten auf Kundenfragen. Ein LLM-as-a-Judge bewertet beide nach: (a) korrekte Policy, (b) klare Schritte, (c) keine Halluzinationen (siehe Halluzinationen (Hallucinations)), (d) freundlicher Ton. Ergebnis: Antwort B gewinnt und wird produktiv ausgespielt.

Grenzen & Best Practices

  • Bias & Instabilität: Judges können eigene Vorlieben haben; daher mehrere Runs, mehrere Judges oder Mehrheitsvoting nutzen.
  • Rubric-Qualität ist entscheidend: Unklare Kriterien führen zu unzuverlässigen Scores.
  • „Self-judging“ vermeiden: Wenn möglich nicht dasselbe Modell als Kandidat und Richter verwenden.
  • Faktencheck absichern: Bei harten Fakten lieber externe Checks (Retriever/DB) ergänzen, statt nur LLM-Urteil.

Richtig umgesetzt ist LLM-as-a-Judge ein skalierbarer Ansatz, um LLM-Ausgaben systematisch zu messen, zu vergleichen und in Automationen zuverlässig zu steuern.