LLM (Large Language Model) | Large Language Model (LLM)
Ein LLM (Large Language Model) ist ein KI-Sprachmodell, das natürliche Sprache statistisch „versteht“ und neue Texte generiert, indem es auf Basis großer Trainingsdaten das wahrscheinlich nächste Wort (Token) vorhersagt. Dadurch kann es z. B. Fragen beantworten, Texte zusammenfassen, Code schreiben oder Inhalte umformulieren.
LLMs gehören zur Generative KI (Generative AI) und werden häufig als Chatbots (z. B. ChatGPT) oder als „Text-Engine“ in Anwendungen, Suchfunktionen und Automatisierungen eingesetzt. Technisch basieren viele moderne LLMs auf der Transformer-Architektur (Transformer Architecture) und dem Attention-Mechanismus (Self-Attention), wodurch sie Zusammenhänge über viele Textstellen hinweg modellieren können.
Was bedeutet LLM (Large Language Model)?
„Large“ bezieht sich auf die Größe des Modells (viele Parameter) und/oder die Menge der Trainingsdaten. „Language Model“ bedeutet, dass das Modell Sprache als Sequenz verarbeitet und Wahrscheinlichkeiten über mögliche Fortsetzungen berechnet. In der Praxis heißt das: Ein LLM erzeugt Antworten, indem es Token (Tokens) & Tokenisierung (Tokenization) Schritt für Schritt generiert – nicht, indem es wie eine Datenbank „nachschlägt“.
Wie funktioniert ein Large Language Model (vereinfacht)?
- Training: Das Modell lernt Muster aus sehr vielen Texten (und je nach Modell auch aus Bildern/Audio bei Multimodale KI (Multimodal AI)).
- Prompt: Du gibst eine Eingabe (z. B. Frage, Aufgabe, Beispieltext). Struktur und Anweisungen werden oft über System Prompt (Systemanweisung) und Prompt Engineering verbessert.
- Kontext: Das Modell berücksichtigt den aktuellen Inhalt im Kontextfenster (Context Window) (z. B. Chatverlauf, Dokumentauszüge).
- Inference: Bei der Inference berechnet es Token-Wahrscheinlichkeiten und erzeugt die Antwort. Parameter wie Temperature & Sampling (Temperatur & Sampling) beeinflussen Kreativität vs. Determinismus.
Wofür werden LLMs in der Praxis genutzt?
- Textarbeit: E-Mails, Blog-Entwürfe, Zusammenfassungen, Übersetzungen, Tonalitätsanpassung.
- Wissenszugriff im Unternehmen: Mit RAG (Retrieval-Augmented Generation) kann ein LLM interne Dokumente über Embeddings und eine Vektordatenbank (Vector Database) semantisch durchsuchen und Antworten „grounden“.
- Automation & Workflows: In Tools wie n8n werden LLMs genutzt, um Tickets zu klassifizieren, Daten zu extrahieren oder Antworten zu entwerfen – oft kombiniert mit Function Calling / Tool Use.
- Agenten: AI Agents (KI-Agenten) können Aufgaben in mehreren Schritten planen und Tools aufrufen (z. B. CRM aktualisieren, E-Mails versenden), benötigen aber klare Leitplanken.
Wichtige Grenzen & Risiken
LLMs können überzeugend klingende, aber falsche Inhalte erzeugen (Halluzinationen (Hallucinations)). Außerdem sind Sicherheitsthemen wie Prompt Injection und Datenschutz (z. B. Datenschutz (DSGVO/GDPR) & KI) zentral. Für produktive Systeme sind daher häufig Guardrails (KI-Leitplanken), Logging/Evaluierung und klare Governance sinnvoll.
LLM anpassen: Fine-Tuning vs. RAG
Ein LLM lässt sich entweder Fine-Tuning (z. B. mit LoRA) auf Stil/Format/Tasks optimieren oder über RAG mit aktuellen, internen Quellen verbinden. Oft ist RAG der schnellere Weg, um Unternehmenswissen nutzbar zu machen, während Fine-Tuning eher für konsistente Ausgabeformate oder domänenspezifische Schreibweisen genutzt wird.
Zusammengefasst: Ein LLM ist ein leistungsfähiges Sprachmodell zur Textgenerierung und -verarbeitung, das als Kernbaustein moderner KI-Produkte dient – von Chatbots bis hin zu automatisierten, tool-gestützten Workflows.