Few-Shot Learning (Wenige-Beispiele-Lernen)
Few-Shot Learning (Wenige-Beispiele-Lernen) bedeutet, dass ein Large Language Model (LLM) durch wenige, gezielt ausgewählte Beispiele im Prompt „gesteuert“ wird, ohne dass ein zusätzliches Training oder Fine-Tuning nötig ist. Statt neue Modellgewichte zu lernen, erkennt das Modell aus 1–5 Beispielen das gewünschte Muster (Format, Ton, Regeln) und wendet es direkt auf neue Eingaben an.
Was ist Few-Shot Learning?
Few-Shot Learning ist eine Prompting-Technik aus dem Bereich Prompt Engineering. Du gibst dem Modell einige Beispielpaare (Input → Output), damit es versteht, wie es antworten soll: z. B. welche Struktur, welche Klassifikationslabels, welche Schreibweise oder welche Extraktionslogik erwartet wird. Im Gegensatz zu klassischem maschinellem Lernen werden dabei keine Trainingsdaten gesammelt und kein Modell neu trainiert – die Anpassung passiert zur Laufzeit während der Inference.
Was bedeutet „Wenige-Beispiele-Lernen“ in der Praxis?
„Wenige Beispiele“ heißt: Du zeigst dem Modell eine Mini-Sammlung repräsentativer Fälle, die die Regel implizit demonstrieren. Typische Anwendungen sind:
- Formatsteuerung: z. B. Ausgabe immer als JSON, Tabelle oder Bullet-Liste.
- Klassifikation: z. B. E-Mails in „Support“, „Sales“, „Spam“ einteilen.
- Extraktion: z. B. aus Rechnungen Felder wie Betrag, Datum, Lieferant ziehen.
- Ton & Stil: z. B. „kurz, sachlich, deutsch, Du-Ansprache“.
Wie funktioniert Few-Shot Learning?
Der Ablauf lässt sich meist in fünf Schritte fassen:
- 1) Ziel definieren: Was soll das Modell leisten (z. B. klassifizieren, extrahieren, umschreiben)?
- 2) Beispiele auswählen: 2–5 Beispiele, die typische und ggf. schwierige Fälle abdecken.
- 3) Beispiele konsistent formatieren: Gleiche Struktur, gleiche Labels, gleiche Sprache.
- 4) Neue Eingabe anhängen: Danach kommt der „echte“ Input, den das Modell lösen soll.
- 5) Ausgabe prüfen & iterieren: Beispiele anpassen, wenn Fehler auftreten (z. B. Grenzfälle ergänzen).
Beispiel (kompakt): Klassifikation für Automatisierung
In einem Workflow mit n8n oder Automatisierung (Automation) kannst du Few-Shot nutzen, um eingehende Nachrichten zu routen. Prompt-Idee:
- Beispiel 1: „Ich habe mein Passwort vergessen“ → Label: Support
- Beispiel 2: „Können wir nächste Woche eine Demo machen?“ → Label: Sales
- Beispiel 3: „Sie haben gewonnen!!!“ → Label: Spam
Danach gibst du die neue Nachricht ein, und das Modell liefert das passende Label, das im Workflow als If/Else-Logik genutzt wird. In Kombination mit Function Calling / Tool Use kann das Label direkt eine Aktion auslösen (Ticket erstellen, CRM-Lead anlegen, Nachricht blocken).
Few-Shot vs. Fine-Tuning vs. RAG
- Few-Shot Learning: schnell, flexibel, keine Trainingspipeline; ideal für Regeln, Formate und leichte Domänenanpassung.
- Fine-Tuning / LoRA: sinnvoll, wenn du dauerhaftes Verhalten brauchst, viele Beispiele hast oder sehr konsistente Outputs über große Volumina.
- RAG (Retrieval-Augmented Generation): wenn es um aktuelles oder unternehmensinternes Wissen geht (Dokumente, Policies). Few-Shot steuert das Format – RAG liefert die Fakten.
Vorteile, Grenzen und Best Practices
Vorteile: sehr geringe Einstiegshürde, schnelle Iteration, gut für Prototyping und Workflows. Grenzen: Beispiele „verbrauchen“ Kontextfenster, Ergebnisse können variieren, und bei unklaren Regeln steigt das Risiko von Halluzinationen (Hallucinations). Best Practices: wenige, aber diverse Beispiele; klare Labels; konsistentes Ausgabeformat; bei Wissensfragen lieber RAG statt immer mehr Beispiele; Datenschutz beachten (siehe Datenschutz (DSGVO/GDPR) & KI).