Das Model Context Protocol (MCP) ist ein offen dokumentiertes Protokoll zur standardisierten Anbindung von LLM-basierten Anwendungen an externe Datenquellen und Tools. Ziel ist es, Kontext, Tool-Aufrufe und Ergebnisse in einer konsistenten Client-Server-Interaktion bereitzustellen, sodass AI-Assistenten unternehmensrelevante Informationen sicher, nachvollziehbar und wiederverwendbar nutzen können.
Der Beitrag richtet sich an Enterprise-Architekten und Data Scientists.
Kernaussagen:
Standardisierung der Tool- und Datenanbindung (Reduktion proprietärer Integrationen)
Entkopplung von Frontend/LLM und Integrationslogik (Server-Prinzip)
Governance & Auditierbarkeit durch zentral umgesetzte Kontrolle (IAM, Logging, Policies)
Skalierbarkeit für mehrere Clients, Datenquellen und Tool-Ökosysteme
Was ist MCP?
MCP definiert eine standardisierte „Sprache“ und Interaktionslogik, über die eine LLM-Anwendung (z. B. Chat, Desktop-Client, IDE) auf externe Systeme zugreifen kann – etwa Wissensbasen, Datenbanken, DWH/BI-Plattformen, Ticketing/ITSM, Dateisysteme oder unternehmensspezifische APIs.
Statt jede Integration individuell in der jeweiligen Anwendung zu bauen, kapselt ein MCP-Server die Tool- bzw. Datenzugriffslogik und stellt sie standardisiert bereit.
Aus Enterprise-Sicht ist MCP damit ein Architekturbaustein für:
Wiederverwendbare Integrationen
Konsistente Sicherheits- und Governance-Durchsetzung
Nachvollziehbare Tool-Nutzung (Audit Trail)
Reduzierte Komplexität in Multi-Tool-/Multi-Client-Landschaften
Architektur: Host – Client – Server
MCP lässt sich typischerweise in drei Rollen strukturieren:
Host: Die LLM-gestützte Anwendung, in der Nutzer interagieren (z. B. Web-Chat, Desktop-App, IDE-Integration)
Client: Logische Vermittlungsschicht, die Verbindungen herstellt, Fähigkeiten aushandelt und Tool-Aufrufe orchestriert
Server: Stellt Tools/Ressourcen bereit und verantwortet Zugriff, Autorisierung, Tool-Semantik, Fehlerbehandlung und Ergebnisformate
Der Server ist die zentrale Integrations- und Governance-Ebene. Host/Client fokussieren Nutzerführung, Orchestrierung und sichere Einbettung in den LLM-Workflow.
Your Content Goes Here
Funktionsweise (konzeptionell)
Ein MCP-gestützter Ablauf kann wie folgt beschrieben werden:
1. Capability Discovery Der Client ermittelt, welche Tools/Resources der Server anbietet (inkl. Parametern, Beschreibungen, Einschränkungen)
2. Kontextbereitstellung
Der Server liefert strukturierte Informationen oder Referenzen (z. B. Suchtreffer, Dokumentauszüge, Metadaten)
3. Tool-Ausführung
Der Client ruft ein Tool mit definierten Parametern auf (z. B. Datenabfrage, Ticket-Erstellung)
4. Ergebnisrückgabe
Der Server liefert strukturierte Ergebnisse (idealerweise inkl. Quellen/Metadaten)
5. Antwortbildung & Verifizierung
Das LLM generiert die Antwort und nutzt dabei anwendungsseitige Guardrails/Validierungen, um Konsistenz und Regelkonformität sicherzustellen
MCP-Server: Designprinzipien und Betriebsmodelle
Designprinzipien
Ein produktionsfähiger MCP-Server sollte insbesondere:
RAG: kontrollierte Wissensbereitstellung aus Dokumenten-/Datenbeständen
MCP: standardisierte Anbindung/Orchestrierung von Tools und Datenquellen
Ein RAG-Service kann als MCP-Server angeboten werden (z. B. „search_kb“, „retrieve_passages“, „cite_sources“) und damit plattformweit wiederverwendbar und governable werden.