GraphRAG
GraphRAG (Graph-based Retrieval-Augmented Generation) ist eine Variante von RAG (Retrieval-Augmented Generation), die einen Knowledge Graph (Wissensgraph) nutzt, um Informationen nicht nur nach Ähnlichkeit (Vektor-Suche), sondern auch entlang von Beziehungen (z. B. „gehört zu“, „verursacht“, „ist Teil von“) zu finden. Dadurch werden Antworten oft präziser, besser begründet und robuster gegen fehlenden Kontext.
Was bedeutet GraphRAG?
„RAG“ kombiniert ein Large Language Model (LLM) mit Retrieval: Vor der Antwort werden passende Quellenstücke gesucht und dem Modell als Kontext gegeben. „GraphRAG“ erweitert das, indem Wissen zusätzlich als Graph strukturiert wird: Knoten stehen für Entitäten (Personen, Produkte, Systeme, Begriffe), Kanten für Beziehungen (Abhängigkeiten, Hierarchien, Prozesse). Das Retrieval kann damit gezielt „über Beziehungen“ navigieren – statt nur Textpassagen zu matchen.
Wie funktioniert GraphRAG? (typischer Ablauf)
- 1) Ingestion & Strukturierung: Dokumente (z. B. Wikis, Tickets, PDFs) werden verarbeitet. Neben Embeddings werden Entitäten und Relationen extrahiert (Information Extraction) und im Graph gespeichert.
- 2) Graph + Vektor-Index: Häufig existieren zwei Sichten parallel: eine Vektordatenbank (Vector Database) für semantische Ähnlichkeit und ein Graph-Store für Beziehungsabfragen.
- 3) Query Understanding: Die Nutzerfrage wird analysiert (z. B. „Welche Systeme hängen von X ab?“). Daraus entstehen Kandidaten-Entitäten und ein Retrieval-Plan.
- 4) Graph Retrieval: Der Graph wird traversiert (z. B. Nachbarn, Pfade, Abhängigkeiten) oder per Graph-Query (Cypher/Gremlin) gefiltert. Optional kombiniert mit Hybrid Search (BM25 + Vektor).
- 5) Kontextaufbau & Generierung: Aus den gefundenen Knoten/Beziehungen werden passende Textstellen und strukturierte Fakten zusammengestellt. Das LLM erzeugt daraus eine Antwort – idealerweise mit Citations (Quellenangaben) in LLMs.
Warum ist GraphRAG wichtig?
Viele RAG-Systeme scheitern, wenn die relevante Information über mehrere Dokumente verteilt ist oder wenn Beziehungen entscheidend sind (Abhängigkeiten, Zuständigkeiten, Prozessketten). GraphRAG kann hier besser:
- Mehr-Hop-Fragen: „Welche Kunden sind von einem Ausfall in Service A betroffen?“ (Service A → Integrationen → Kundenprojekte)
- Weniger Halluzinationen: Durch explizite Relationen und besseres Grounding sinkt das Risiko von Halluzinationen (Hallucinations).
- Erklärbarkeit: Beziehungen liefern eine nachvollziehbare Begründung („A hängt von B ab, weil…“).
- Strukturiertes Wissen: Ideal für Richtlinien, Compliance, Enterprise-IT, Produktkataloge oder Wissensmanagement.
Beispiele aus KI, Automation & Tools (z. B. n8n)
In Automations-Setups (z. B. mit n8n und Automatisierung (Automation)) kann GraphRAG helfen, Workflows sicherer zu betreiben: Ein Agent fragt nicht nur „wie heißt der Endpoint?“, sondern erkennt Abhängigkeiten („Webhook X triggert Workflow Y, der schreibt in System Z“). In Kombination mit AI Agents (KI-Agenten) und Function Calling / Tool Use lassen sich so Tool-Auswahl, Reihenfolge und Zuständigkeiten besser steuern.
Was kostet GraphRAG?
Es gibt selten einen Fixpreis; die Kosten hängen vor allem von (1) Datenmenge, (2) Qualität der Extraktion (Entitäten/Relationen), (3) Graph- und Vektor-Infrastruktur sowie (4) Abfrage- und Antwortlatenz ab. Typische Kostentreiber sind zusätzliche Verarbeitungsschritte (Extraktion, Graph-Updates), Evals/Qualitätssicherung und Betrieb (Indexierung, Monitoring). Im Gegenzug spart GraphRAG oft Zeit bei Recherche, reduziert Fehlantworten und verbessert die Trefferqualität bei komplexen Fragen.
Merksatz: Klassisches RAG findet „ähnliche Textstellen“ – GraphRAG findet zusätzlich „zusammenhängendes Wissen“ über Beziehungen und liefert dadurch häufig besseren Kontext für LLM-Antworten.