Context Engineering
Context Engineering ist das systematische Design von Kontext, Daten, Tools und Regeln, damit ein Large Language Model (LLM) in einer Anwendung zuverlässig, sicher und reproduzierbar arbeitet. Es geht über reines Prompt Engineering hinaus: Statt nur „gute Prompts“ zu schreiben, wird die gesamte Ausführungsumgebung (Wissen, Zustände, Zugriff auf Systeme, Leitplanken) so gestaltet, dass das Modell die richtigen Informationen zur richtigen Zeit bekommt.
Was bedeutet Context Engineering konkret?
Der „Kontext“ eines LLMs umfasst alles, was das Modell bei der Antwortgenerierung berücksichtigen kann: Systemanweisungen, Nutzerinput, Beispiele, Unternehmenswissen, Gesprächsverlauf, Tool-Ergebnisse und Formatvorgaben. Context Engineering beschreibt die Methodik, diesen Kontext gezielt zusammenzustellen, zu priorisieren, zu kürzen und abzusichern – passend zum jeweiligen Use Case (z. B. Support-Chat, Dokumentenanalyse, Automatisierung).
Wie funktioniert Context Engineering? (typischer Ablauf)
- 1) Ziel & Output definieren: Welche Aufgabe soll gelöst werden (z. B. E-Mail klassifizieren, Angebot erstellen)? Welche Struktur wird erwartet (z. B. Structured Outputs (JSON Schema))?
- 2) Regeln festlegen: Systemregeln (Ton, Policy, „keine Spekulation“), Rollen, und ggf. Guardrails (KI-Leitplanken). Häufig über einen System Prompt (Systemanweisung).
- 3) Wissen anbinden: Relevante Inhalte werden über RAG (Retrieval-Augmented Generation), Embeddings und eine Vektordatenbank (Vector Database) gesucht und als „Grounding“ bereitgestellt (siehe Grounding (Faktenverankerung), optional mit Citations (Quellenangaben) in LLMs).
- 4) Tools integrieren: Das Modell darf Aktionen ausführen (z. B. CRM abfragen, Tickets anlegen) über Function Calling / Tool Use oder Agenten-Frameworks wie LangChain / LlamaIndex.
- 5) Kontext budgetieren & komprimieren: Relevantes priorisieren, irrelevantes entfernen, Zusammenfassungen nutzen und das Kontextfenster (Context Window) beachten (z. B. Prompt Compression (Prompt-Kompression), Caching).
- 6) Absichern & testen: Schutz vor Prompt Injection / Jailbreak, PII-Handling (z. B. PII Redaction (PII-Schwärzung)) und Qualitätssicherung via Evaluation (Eval) & Benchmarking sowie Monitoring.
Warum ist Context Engineering wichtig?
LLMs wirken „intelligent“, sind aber stark kontextabhängig. Schlechter oder unvollständiger Kontext führt zu Fehlannahmen, inkonsistenten Antworten und Halluzinationen (Hallucinations). Gut gemachtes Context Engineering reduziert diese Risiken, erhöht die Trefferquote bei Wissensfragen, verbessert Compliance (z. B. Datenschutz) und macht Ergebnisse stabiler – besonders in produktiven Workflows und Automationen.
Beispiele aus der Praxis (KI, Automation, n8n)
- Support-Chat mit Unternehmenswissen: Nutzer fragt nach Vertragsdetails. Das System nutzt Retrieval (Information Retrieval) + RAG (Retrieval-Augmented Generation), liefert nur passende Auszüge, verlangt Quellen und verhindert Spekulation.
- Agentische Automatisierung: Ein AI Agents (KI-Agenten)-Workflow darf via Function Calling / Tool Use ein Ticket erstellen, aber nur nach Validierung der Felder (Schema) und mit Sicherheitsregeln (z. B. keine Geheimnisse ausgeben).
- n8n-Prozess: In n8n wird ein Flow gebaut: E-Mail → Klassifikation → Wissenssuche → Antwortentwurf → Freigabe. Der Kontext enthält Regeln, relevante Kundenhistorie (gekürzt) und Tool-Ergebnisse – nicht „alles“, sondern das Nötige.
Zusammengefasst: Context Engineering ist die Disziplin, LLMs nicht nur zu „befragen“, sondern sie in eine kontrollierte, daten- und toolgestützte Umgebung einzubetten, damit sie im Alltag verlässlich Mehrwert liefern.