LAllgemein

LangChain

Framework zum Bauen von LLM-Apps mit Tools, RAG und Chains.

LangChain ist ein Open-Source-Framework, mit dem du Anwendungen auf Basis von Large Language Model (LLM)s baust, die mehrere Schritte ausführen, externe Daten einbinden und Tools verwenden. Es bietet Bausteine für Prompts, „Chains“, Speicher (Memory), RAG (Retrieval-Augmented Generation), Vektorsuche und Agenten-Workflows – typischerweise in Python oder JavaScript/TypeScript.

Was bedeutet LangChain?

Der Name setzt sich aus „Language“ und „Chain“ zusammen: Statt nur einen einzelnen Prompt an ein Modell zu schicken, verknüpfst du mehrere Verarbeitungsschritte („Ketten“) zu einem reproduzierbaren Ablauf. So entstehen robuste LLM-Apps wie Chatbots, Recherche-Assistenten oder Automatisierungen, die nicht nur Text generieren, sondern auch Informationen nachschlagen, Entscheidungen treffen und Aktionen ausführen.

Wie funktioniert LangChain?

LangChain stellt wiederverwendbare Komponenten bereit, die du zu Pipelines kombinierst. Typische Schritte sind:

  • Eingabe & Prompting: Vorlagen, Variablen und Formatierungen – oft in Verbindung mit Prompt Engineering.
  • Modellaufruf: Anbindung verschiedener LLM-Provider (z. B. OpenAI, Anthropic, lokale Modelle).
  • Kontext holen (RAG): Dokumente werden in Embeddings umgewandelt und in einer Vektordatenbank (Vector Database) gesucht; relevante Treffer werden dem Modell als Kontext mitgegeben.
  • Tool-Nutzung: Über Function Calling / Tool Use kann das Modell strukturierte Tool-Aufrufe erzeugen (z. B. „suche in Datenbank“, „sende E-Mail“, „erstelle Ticket“).
  • Orchestrierung: Chains/Graphen definieren Reihenfolge, Verzweigungen, Fehlerbehandlung und Ausgabeformate.

Wofür wird LangChain genutzt? (Beispiele)

  • RAG-Chatbot für interne Wissensbasen: Mitarbeitende fragen „Wie beantrage ich Urlaub?“ – das System zieht passende Richtlinien aus PDFs/Wikis via RAG (Retrieval-Augmented Generation) und antwortet mit Quellen.
  • KI-Agent für Support: Ein Agent klassifiziert Anfragen, ruft Kundendaten ab, erstellt Antwortentwürfe und legt bei Bedarf ein Ticket an (Agenten-Pattern, siehe AI Agents (KI-Agenten)).
  • Automations mit Tools: In Kombination mit n8n oder eigenen APIs kann LangChain Abläufe wie „E-Mail lesen → zusammenfassen → CRM updaten → Slack posten“ orchestrieren (siehe Automatisierung (Automation)).

Warum ist LangChain wichtig?

Ein einzelner Prompt reicht in der Praxis selten aus: Unternehmensdaten müssen sicher eingebunden werden, Antworten sollen nachvollziehbar sein und Prozesse müssen zuverlässig laufen. LangChain hilft dabei, LLM-Apps zu strukturieren, wiederholbar zu machen und um externe Systeme zu erweitern. Das kann auch Risiken reduzieren, etwa durch Guardrails gegen Halluzinationen (Hallucinations) oder durch klar definierte Tool-Aufrufe statt „freier“ Modellaktionen.

Was kostet LangChain?

Das Framework selbst ist kostenlos (Open Source). Kosten entstehen typischerweise durch:

Damit ist LangChain besonders sinnvoll, wenn du über „ChatGPT im Browser“ hinausgehen und produktive, tool-fähige LLM-Anwendungen mit Datenanbindung und klaren Workflows bauen willst.