Large Language Model (LLM) (Konsolidierung)
Ein Large Language Model (LLM) ist eine Sprach-KI, die Texte „versteht“ und selbst neue Texte erzeugt. Es wird mit sehr vielen Beispielen aus Sprache trainiert und kann dadurch E-Mails formulieren, Inhalte zusammenfassen, Fragen beantworten oder Daten in Textform erklären. In CRM-, ERP- oder CMS-Tools ist ein LLM oft die Basis für einen AI Copilot (KI-Assistent).
Was bedeutet „Large Language Model (LLM)“ (Konsolidierung)?
„Large“ bedeutet: Das Modell ist groß, weil es aus sehr vielen Parametern besteht und auf sehr großen Textmengen trainiert wurde. „Language Model“ heißt: Es berechnet, welches Wort (genauer: welcher Token) als nächstes am besten passt. „Konsolidierung“ meint hier: Dieser Glossar-Eintrag bündelt das Thema LLM als Grundbegriff – unabhängig davon, ob Sie konkret an ChatGPT oder ein anderes Produkt denken.
Wie funktioniert ein LLM – vereinfacht erklärt
Ein LLM erzeugt Antworten, indem es Muster aus Sprache nutzt. Es „weiß“ nicht automatisch, was in Ihrem Unternehmen stimmt – es generiert plausible Texte. Darum ist Kontext entscheidend.
- 1) Eingabe: Sie geben eine Frage oder Aufgabe ein (Prompt). Das nennt man Prompt Engineering.
- 2) Verarbeitung: Das Modell zerlegt Text in Token (Tokens) & Tokenisierung (Tokenization) und verarbeitet ihn über die Transformer-Architektur (Transformer Architecture).
- 3) Antwort: Es berechnet Wort für Wort die wahrscheinlichste Fortsetzung (das ist Inference (Inferenz)).
- 4) Grenzen: Ohne Faktenquelle kann es zu Halluzinationen (Hallucinations) kommen (überzeugend klingend, aber falsch).
Wofür brauchen KMU ein LLM in CRM, ERP oder CMS?
Gerade Unternehmen ohne eigene IT-Abteilung profitieren, weil LLMs wiederkehrende Text- und Wissensarbeit beschleunigen:
- CRM: Gesprächsnotizen zusammenfassen, Follow-up-E-Mails vorschlagen, nächste Schritte aus einem Call ableiten.
- ERP: Bestell- oder Rechnungsrückfragen formulieren, Arbeitsanweisungen aus Prozessdokumenten erklären, Artikeltexte für Kataloge erstellen.
- CMS/Marketing: Blog-Entwürfe, Landingpage-Varianten, Meta-Texte, FAQs oder Social-Posts erstellen – mit einheitlichem Ton.
- Support: Standardantworten aus einer Knowledge Base (Wissensdatenbank) ableiten oder Tickets vorsortieren.
Wie werden LLMs „unternehmensfähig“? (RAG statt Bauchgefühl)
Damit ein LLM auf Ihre internen Informationen zugreifen kann, wird häufig RAG (Retrieval-Augmented Generation) eingesetzt: Dokumente werden in Abschnitte geteilt (siehe Chunking (Text-Chunking)), als Embeddings gespeichert und über eine Vektordatenbank (Vector Database) wiedergefunden. So kann das Modell Antworten stärker auf Ihre Inhalte stützen (Grounding), statt zu raten.
Was kostet der Einsatz eines LLM?
Die Kosten hängen davon ab, ob Sie ein fertiges Tool nutzen (z. B. Copilot-Funktion in Ihrer Software) oder ein LLM per API anbinden. Typische Kostentreiber sind Token-Verbrauch (Eingabe/Antwort), Anzahl der Nutzer, Datenanbindung (RAG) und Sicherheitsanforderungen wie Datenschutz (DSGVO/GDPR) & KI oder Datenstandort.
Worauf sollten KMU achten (Praxis-Checkliste)
- Datenschutz & Verträge: AVV/DPA, Datenaufbewahrung, Rollen & Berechtigungen.
- Qualität: Klare Prompts, Beispiele, Review-Prozess (Human-in-the-Loop).
- Sicherheit: Schutz vor Prompt Injection und klare Guardrails (KI-Leitplanken).
- Integration: Tool-Anbindung via Function Calling / Tool Use oder Automatisierung (z. B. n8n).
Unterm Strich: Ein LLM ist der „Motor“ für moderne Text- und Wissensautomatisierung – der echte Nutzen entsteht, wenn es mit Ihren Daten, Prozessen und Leitplanken sauber verbunden wird.