Model Context Protocol (MCP)
Model Context Protocol (MCP) ist ein offener Standard, der festlegt, wie ein Large Language Model (LLM) sicher und strukturiert auf externe Tools, Datenquellen und „Kontext“ zugreifen kann – z. B. auf Dateien, Datenbanken, APIs oder interne Systeme. Ziel ist, Tool-Nutzung zu vereinheitlichen, Risiken zu reduzieren und KI-Integrationen zuverlässiger und skalierbarer zu machen.
Was bedeutet Model Context Protocol (MCP)?
MCP beschreibt ein Protokoll („gemeinsame Sprache“) zwischen einem KI-Modell und sogenannten MCP-Servern. Diese Server stellen Funktionen, Ressourcen und Daten kontrolliert bereit. Statt für jedes Tool eine eigene, proprietäre Integration zu bauen, nutzt man ein standardisiertes Interface, das Berechtigungen, Datenzugriff und Tool-Aufrufe klar regelt.
Wie funktioniert MCP? (vereinfacht in 5 Schritten)
- 1) MCP-Server bereitstellen: Ein Server kapselt eine Datenquelle oder ein Tool (z. B. CRM, Ticketsystem, Datenbank, Filesystem, interne API).
- 2) Fähigkeiten beschreiben: Der Server veröffentlicht, welche „Tools“/Funktionen und Ressourcen verfügbar sind (inkl. erwarteter Parameter und Rückgaben).
- 3) Verbindung & Kontext: Der Client (z. B. eine App, ein Agent-Framework oder ein Workflow-Tool wie n8n) verbindet das Modell mit dem MCP-Server und liefert relevanten Kontext.
- 4) Kontrollierte Tool-Nutzung: Das Modell kann – ähnlich wie bei Function Calling / Tool Use – gezielt Aktionen anstoßen oder Daten abrufen. Der Server entscheidet, was erlaubt ist und liefert strukturierte Ergebnisse zurück.
- 5) Ausgabe & Nachvollziehbarkeit: Die Antwort entsteht aus Modell-Reasoning plus Tool-Ergebnissen; idealerweise sind Quellen/Resultate nachvollziehbar und auditierbar.
Warum ist MCP wichtig?
- Standardisierung statt Insellösungen: Weniger Integrationsaufwand, weil Tools über ein einheitliches Protokoll angebunden werden können.
- Sicherheit & Governance: Zugriffskontrollen, Rollen, Freigaben und Audit-Logs lassen sich zentraler umsetzen – relevant für AI Governance, EU AI Act und Datenschutz (DSGVO/GDPR) & KI.
- Weniger Halluzinationen: Wenn das Modell aktuelle Fakten aus Systemen holen kann (statt zu raten), sinkt das Risiko von Halluzinationen (Hallucinations).
- Bessere Agenten & Automatisierung: MCP ist ein Enabler für AI Agents (KI-Agenten) und robuste Automatisierung (Automation)-Flows.
Wofür wird MCP genutzt? (praktische Beispiele)
- Support-Automation: Ein Agent liest Ticket-Daten aus dem Helpdesk, fragt Bestellstatus im ERP ab und erstellt eine Antwort – ohne direkten Datenbankzugriff des Modells.
- RAG-Setups: MCP kann Datenabruf für RAG (Retrieval-Augmented Generation) standardisieren, z. B. aus einer Vektordatenbank (Vector Database) mit Embeddings.
- Workflow-Orchestrierung: In n8n kann MCP als Brücke dienen, um LLM-Schritte sauber mit internen Tools zu verbinden (Freigaben, Logging, Rechte).
MCP vs. RAG vs. Function Calling – kurz eingeordnet
- Function Calling / Tool Use beschreibt, dass ein Modell Tools aufrufen kann.
- MCP standardisiert, wie Tools/Daten als „Kontext“ und Funktionen sicher bereitgestellt werden.
- RAG (Retrieval-Augmented Generation) ist ein Muster, um Wissen aus externen Quellen in die Antwort einzubinden; MCP kann dafür die Schnittstelle liefern.
Was kostet MCP?
Das Protokoll selbst ist ein Standard – Kosten entstehen primär durch Implementierung und Betrieb: Entwicklung/Integration von MCP-Servern, Hosting, Security (Auth, Rollen, Audits) und Monitoring (ähnlich wie bei MLOps). In der Praxis hängen Aufwand und Budget stark von Anzahl der Tools, Compliance-Anforderungen und gewünschter Automatisierungstiefe ab.