PAllgemein

Preference Dataset (Präferenzdatensatz)

Daten mit Paarvergleichen/Rankings für DPO/RLHF

Ein Preference Dataset (Präferenzdatensatz) ist ein Datensatz, der nicht „die richtige Antwort“ speichert, sondern menschliche oder modellbasierte Vorlieben zwischen mehreren Antworten auf denselben Prompt – meist als Paarvergleich (A besser als B) oder als Ranking. Solche Daten sind zentral für Alignment-Verfahren wie RLHF (Reinforcement Learning from Human Feedback) und DPO (Direct Preference Optimization), um ein Large Language Model (LLM) auf gewünschtes Verhalten (z. B. Hilfsbereitschaft, Faktentreue, Tonalität, Sicherheit) zu optimieren.

Was bedeutet „Preference Dataset“ genau?

Statt klassischer Trainingsdaten („Input → korrektes Output“) enthält ein Präferenzdatensatz typischerweise: (1) einen Prompt/Chat-Kontext, (2) zwei oder mehr Kandidaten-Antworten und (3) ein Präferenzsignal, welche Antwort bevorzugt wird. Das Präferenzsignal kann von Menschen stammen (Human Ratings) oder synthetisch erzeugt werden (z. B. durch ein Bewertungsmodell). Der Fokus liegt auf relativer Qualität, nicht auf absoluter Wahrheit.

Wie funktioniert ein Präferenzdatensatz in RLHF & DPO?

Typische Datenstruktur (Beispiel)

Ein einzelner Eintrag kann so aussehen: Prompt: „Schreibe eine freundliche Antwort auf eine Reklamation.“ Kandidat A: sehr kurz, wenig empathisch. Kandidat B: empathisch, klarer Lösungsvorschlag. Label: „B bevorzugt“. In der Praxis werden zusätzlich Metadaten gespeichert, z. B. Kategorie (Support, Coding), Kriterien (Höflichkeit, Korrektheit), Sprache, Schwierigkeitsgrad oder Sicherheitsflags.

Warum sind Preference Datasets wichtig?

Viele Qualitätsmerkmale guter LLM-Antworten sind schwer als harte „Ground Truth“ zu definieren: Ton, Struktur, Vollständigkeit, Sicherheitskonformität oder hilfreiche Rückfragen. Präferenzdaten machen diese weichen Qualitätsziele trainierbar. Sie helfen auch, Halluzinationen zu reduzieren (z. B. indem faktisch vorsichtige Antworten bevorzugt werden) und das Modell an Produktanforderungen anzupassen, etwa für Chatbots, Agenten oder Automations-Workflows mit AI Agents (KI-Agenten) und Function Calling / Tool Use.

Best Practices & typische Fallstricke

  • Klare Kriterien: Annotator-Guidelines (z. B. „faktentreu vor kreativ“) vermeiden inkonsistente Labels.
  • Diversität: Prompts aus echten Use Cases (Support, Sales, Coding, RAG) verhindern Overfitting.
  • Bias & Leakage: Präferenzen können Stil über Inhalt bevorzugen; außerdem dürfen keine sensiblen Daten (PII) in Prompts/Antworten landen (siehe Datenschutz (DSGVO/GDPR) & KI).
  • Qualitätssicherung: Inter-Annotator-Agreement, Spot Checks, und Regression-Tests (z. B. Regression Testing für Prompts/Agents) erhöhen Verlässlichkeit.

In Summe ist ein Preference Dataset der praktische Hebel, um ein generatives Modell von „kann Text erzeugen“ zu „liefert verlässlich bevorzugte Antworten“ zu entwickeln – besonders in produktiven Anwendungen mit klaren Qualitäts- und Sicherheitsanforderungen.