MCP – KI-Modelle mit der Außenwelt verbinden

MCP: Warum KI-Modelle bald sehr viel mehr können

ChatGPT, Claude und Gemini können Texte schreiben, Fragen beantworten, Bilder erzeugen. Aber sie leben in einer Blase. Sie wissen nichts über deine Dateien, deine E-Mails, deinen Kalender. Jedenfalls wussten sie das bisher nicht.

Das ändert sich gerade. Und zwar durch ein Protokoll mit dem Akronym MCP – Model Context Protocol. Was sich anhört wie eine Randnotiz für Entwickler, könnte die Art, wie wir KI nutzen, ziemlich grundlegend verändern. Es geht auch schon los. Ein Blick darauf lohnt sich, technischen Hintergrund brauchst du nicht.

Was ist das Problem?

Stell dir vor, du hast einen brillanten Assistenten. Er spricht zwanzig Sprachen, kennt die Weltgeschichte im Detail, kann Romane schreiben und Steuererklärungen erklären. Aber er sitzt in einem Raum ohne Fenster und ohne Telefon. Er hat keinen Zugriff auf deine Unterlagen, kann keine E-Mails lesen, keine Termine eintragen, keine Dateien öffnen.

So funktionieren KI-Assistenten heute. Oder besser: So funktionierten sie bis vor kurzem.

Das eigentliche Problem dahinter ist mathematisch simpel und praktisch enorm. Wenn es 10 verschiedene KI-Modelle gibt und 50 verschiedene Dienste, mit denen sie zusammenarbeiten sollen – E-Mail, Kalender, Datenbanken, Cloud-Speicher, Projektmanagement – dann braucht man 500 einzelne Verbindungen. Jede davon muss programmiert, getestet und gepflegt werden. Kommt ein neues Modell hinzu oder ein neuer Dienst, wächst der Aufwand weiter. Das skaliert nicht. Das ist ein Chaos, das sich selbst reproduziert.

Was MCP daran ändert

MCP ist eine einheitliche Sprache, über die KI-Modelle mit der Außenwelt kommunizieren können. Statt 500 individueller Verbindungen gibt es einen Standard, den alle Seiten verstehen. Die KI spricht MCP, der Dienst spricht MCP, und dazwischen braucht es keine Sonderlösung mehr.

Der Vergleich, der in der Branche kursiert: MCP ist das USB-C für KI. So wie ein einziger Stecker heute Handy, Laptop, Kopfhörer und Monitor verbindet, verbindet MCP eine KI mit praktisch jedem digitalen Werkzeug. Ein Stecker, eine Buchse, fertig.

Anthropic, das Unternehmen hinter Claude, hat das Protokoll im November 2024 als Open-Source-Projekt veröffentlicht und im Dezember 2025 an die Agentic AI Foundation übergeben, einen Fonds unter dem Dach der Linux Foundation. Kein Firmenprodukt mehr, sondern ein offener Standard, den jeder nutzen und mitgestalten kann.

Wie das in der Praxis aussieht

Konkret wird es, wenn man sich anschaut, was MCP-fähige KI-Assistenten heute schon können. Ein paar Beispiele aus dem echten Leben:

Du fragst deine KI: »Gibt es in meinem GitHub-Projekt offene Fehlerberichte zum Login?« Die KI erkennt, dass sie dafür ein bestimmtes Werkzeug braucht, verbindet sich über MCP mit GitHub, durchsucht die Issues und liefert eine Zusammenfassung. Ohne dass du selbst GitHub öffnen, suchen und lesen musst.

Oder: »Schicke eine Einladung an alle Teilnehmer des Workshops nächsten Donnerstag.« Die KI greift auf deinen Kalender zu, liest die Teilnehmerliste, formuliert eine E-Mail und verschickt sie. Mehrere Dienste, ein Arbeitsschritt.

Das Unternehmen Block (früher Square) hat MCP unternehmensweit eingesetzt. Ihr KI-Agent namens »Goose« verbindet interne Systeme wie Jira, Slack und GitHub. Mitarbeiter berichten von Zeiteinsparungen zwischen 50 und 75% bei alltäglichen Aufgaben wie Ticketbearbeitung und Code-Reviews. Rund 60% der Belegschaft nutzen Goose inzwischen wöchentlich.

Klingt nach Zukunftsmusik? Ist es nicht. Das passiert jetzt.

Die drei Bausteine von MCP

Wer es etwas genauer wissen will: MCP kennt drei Grundtypen von Dingen, die ein Server bereitstellen kann. Man muss nicht alle drei verstehen, aber die Logik dahinter ist elegant.

BausteinWas er tutBeispiel
ToolsAktionen ausführen – die KI tut etwasE-Mail senden, Datei erstellen, Datenbank abfragen
ResourcesInformationen bereitstellen – die KI liest etwasLogdateien, Dokumente, Benutzerprofile
PromptsArbeitsabläufe strukturieren – die KI folgt einem PlanVorlage für Reiseplanung, Analyseschema

Tools sind die Hände, Resources das Gedächtnis, Prompts die Arbeitsanweisungen. Zusammen machen sie aus einem Textgenerator einen Assistenten, der in der echten Welt agieren kann.

Das Entscheidende daran: Die KI entdeckt diese Fähigkeiten zur Laufzeit selbst. Sie bekommt nicht vorab eine starre Liste, sondern fragt beim Start: »Was kannst du mir anbieten?« Der MCP-Server antwortet, und die KI weiß ab diesem Moment, welche Werkzeuge ihr zur Verfügung stehen. Das ist der Unterschied zu fest verdrahteten Integrationen.

Was MCP-Server heute schon können

Das Ökosystem wächst schnell. Es gibt über 10.000 öffentlich verfügbare MCP-Server (Stand 12/2025). Hier eine Auswahl der wichtigsten:

ServerWas er ermöglicht
GitHubPull Requests verwalten, Code durchsuchen, Issues bearbeiten
Google DriveDokumente suchen, lesen und bearbeiten
PostgreSQLDatenbanken in natürlicher Sprache abfragen
PlaywrightWebseiten automatisiert bedienen und testen
SlackNachrichten suchen und senden
SentryFehlerberichte analysieren
DockerContainer starten und verwalten

Für die meisten Leser dürften Google Drive und Slack die greifbarsten sein. Die KI kann Dokumente in deiner Cloud finden, ohne dass du den genauen Dateinamen kennst. Oder Slack-Nachrichten durchsuchen und zusammenfassen. Das sind keine Spielereien, das spart echte Zeit.

MCP an der Uni: Lernplattformen und Forschung

Interessant für alle, die KI im Studium nutzen: MCP macht auch vor Universitäten nicht halt. Es gibt bereits MCP-Server für die beiden großen Lernplattformen Canvas und Moodle. Die verbinden KI-Assistenten direkt mit dem Uni-System.

Was das praktisch heißt: Du fragst Claude oder ChatGPT »Welche Abgaben habe ich diese Woche?« – und die KI schaut in deinem Canvas-Konto nach, statt dass du dich durch fünf Menüs klickst. Sie kann Kursmaterialien durchsuchen, Diskussionsbeiträge zusammenfassen, Abgabetermine auflisten. Alles in natürlicher Sprache, alles in Echtzeit.

Der Canvas-MCP-Server bietet inzwischen über 50 verschiedene Werkzeuge – von der Kursverwaltung über Notenübersicht bis zum Einreichen von Aufgaben. Für Moodle existiert ein ähnliches Projekt, das Studierendendaten abruft und Feedback generiert. Beide haben Datenschutz-Funktionen eingebaut: Studentennamen werden standardmäßig anonymisiert, alles läuft lokal auf dem eigenen Rechner.

Für die Forschung sieht es ähnlich aus. MCP-Server für arXiv, PubMed und Semantic Scholar erlauben es, über die KI nach Fachartikeln zu suchen, PDFs herunterzuladen und Zitationsketten zu verfolgen. Man fragt: »Finde aktuelle Paper zum Thema Sprachmodelle in der Bildung« – und bekommt eine strukturierte Übersicht, ohne eine einzige Datenbank manuell zu durchsuchen.

Bisher sind das überwiegend Community-Projekte, keine offiziellen Uni-Angebote. Aber die Richtung ist klar. Wenn Lernplattformen und Forschungsdatenbanken per Standardprotokoll erreichbar sind, wird es nur eine Frage der Zeit sein, bis Hochschulen das institutionell aufgreifen. Für die taiwanische Tamkang University existiert bereits ein Community-MCP-Server, der Stundenplan und Lernplattform TronClass anbindet.

Und die Sicherheit?

Berechtigte Frage. Wenn eine KI plötzlich auf E-Mails, Dateien und Datenbanken zugreifen kann, muss man über Sicherheit reden. Wer wissen will, wie man seine Daten bei KI-Diensten schützt, sollte sich mit den Grundlagen vertraut machen, bevor er alles anbindet.

MCP hat dafür ein paar Prinzipien eingebaut, die ganz vernünftig klingen. Die zentrale Idee: Der Host, also die Anwendung, in der die KI läuft, kontrolliert, welche Berechtigungen vergeben werden. Die KI kann nicht einfach auf alles zugreifen, was technisch erreichbar wäre. Jede Aktion läuft über eine Zwischenschicht, die wie ein Türsteher funktioniert.

Dazu kommt das Prinzip der minimalen Berechtigung: Ein KI-Agent fragt erst dann nach Zugriff, wenn er ihn für eine konkrete Aufgabe tatsächlich braucht. Nicht vorsorglich, nicht pauschal.

Seit November 2025 gibt es außerdem ein System, mit dem sich KI-Clients über eine Art digitalen Ausweis identifizieren. Unternehmen können zentral festlegen, welcher Agent auf welche Ressourcen zugreifen darf, ähnlich wie man heute Zugriffsrechte in einem Firmennetzwerk verwaltet.

Trotzdem gibt es Risiken, und es wäre naiv, die zu ignorieren. Sicherheitsforscher haben Szenarien beschrieben, in denen manipulierte Werkzeugbeschreibungen die KI täuschen könnten, sie glaubt, ein harmloses Tool zu nutzen, während im Hintergrund etwas anderes passiert. Die Gegenmittel existieren (verschlüsselte Verbindungen, verifizierte Server-Verzeichnisse), aber die Technik ist jung und noch nicht überall ausgereift.

Performancekiller?

Was kaum jemand erwähnt: MCP hat auch einen Preis, der nichts mit Sicherheit zu tun hat. Jeder angebundene Server belegt Platz im sogenannten Kontextfenster der KI. Das ist der Arbeitsspeicher, den das Modell für eine Unterhaltung zur Verfügung hat, für deine Fragen, seine Antworten und eben auch für alle Werkzeugbeschreibungen, die über MCP hereinkommen. Ein einzelner Server fällt kaum ins Gewicht. Aber wer fünf, zehn oder mehr Server gleichzeitig anbindet, merkt es: Die KI hat weniger Kapazität für das eigentliche Gespräch, vergisst schneller, was vorher besprochen wurde, oder liefert kürzere Antworten.

Das ist kein Bug, sondern eine Eigenschaft der Architektur. Mehr Werkzeuge bedeuten mehr Kontext, und Kontext ist begrenzt. Es gibt Gegenmaßnahmen, etwa schlankere Tool-Beschreibungen oder eine intelligentere Auswahl, welche Server gerade aktiv sein müssen. Aber vorerst gilt: Viel hilft nicht automatisch viel. Wer alles auf einmal anschließt, bekommt eine KI, die zwar alles kann, aber nichts mehr richtig.

Wer sich für die Begriffe hinter KI-Sicherheit interessiert, findet im KI-Glossar eine verständliche Übersicht.

Was kommt als Nächstes?

Zwei Entwicklungen zeichnen sich ab, die MCP noch einmal deutlich verändern werden.

Die erste: Interaktive Oberflächen direkt im Chat. Bisher war alles Text. Frage rein, Antwort raus. Künftig kann ein MCP-Server dem Chat-Fenster richtige Bedienelemente hinzufügen, ein Diagramm, das man zoomen kann, ein Formular, das man ausfüllt, eine Liste, die man per Drag-and-Drop sortiert. Die KI zeigt nicht nur Ergebnisse, sie baut kleine Anwendungen direkt in die Unterhaltung ein. In Ansätzen funktioniert das beim Vibe Coding schon heute.

Die zweite: Aufgaben, die länger dauern. Nicht jede Anfrage ist in Millisekunden beantwortet. Wenn die KI eine umfangreiche Datenanalyse starten soll oder einen Build-Prozess, kann sie das künftig im Hintergrund tun und zwischendurch Status-Updates liefern. Das klingt banal, ist aber der Schritt vom Assistenten, der antwortet, zum Assistenten, der arbeitet.

Was das für dich bedeutet

MCP selbst wirst du wahrscheinlich nie direkt sehen. Es ist Infrastruktur, so wie USB-C Infrastruktur ist, du nutzt es, ohne drüber nachzudenken.

Aber du wirst die Auswirkungen spüren. KI-Assistenten, die nicht mehr nur auf Fragen antworten, sondern Dinge erledigen. Die auf deine echten Daten zugreifen können, statt sich Antworten auszudenken. Die verschiedene Dienste miteinander verbinden, ohne dass du für jeden eine separate App brauchst. Wer Claude richtig nutzt, kann das mit MCP-Anbindung heute schon ausprobieren.

Ob ChatGPT, Claude oder Gemini – alle großen Anbieter unterstützen MCP inzwischen. Das bedeutet: Egal welche KI du nutzt, die Werkzeuge, die über MCP angebunden sind, funktionieren überall. Du bist nicht an einen Anbieter gefesselt. Und genau das war die Idee.

Die KI rückt näher an den Alltag. MCP ist der Grund dafür. Kein glamouröses Thema, aber ein wichtiges.

Quellen und Daten

Die Informationen in diesem Artikel stammen aus folgenden Primärquellen:

Sven Lennartz Avatar

Der Autor

Sven Edmund Lennartz ist seit 25 Jahren Fachautor und Gründer mehrerer Online-Unternehmen, wie Dr. Web (Webdesign), Conterest (Bloggen), Sternenvogelreisen (Sprache) und Smashing Magazine (Webdesign & Entwicklung). Autorenhomepage

Bist du bereit für mehr?