Einleitung
Die Entwicklung von KI-Agenten erlebt derzeit einen grundlegenden Wandel. Neue Erkenntnisse von Branchenführern stellen einen der am weitesten verbreiteten Standards in diesem Bereich in Frage: das Model Context Protocol (MCP). Während MCP entwickelt wurde, um zu standardisieren, wie KI-Agenten mit externen Systemen interagieren, deuten aktuelle Hinweise darauf hin, dass diese Abstraktion die Agentenleistung begrenzt, Kosten erhöht und die Autonomie einschränkt. In diesem umfassenden Leitfaden beleuchten wir, warum die Codeausführung als überlegene Alternative zu MCP aufkommt, wie sie den Tokenverbrauch um bis zu 98 % reduziert und was dies für die Zukunft der KI-Agentenarchitektur bedeutet. Ob Sie nun Unternehmens-KI-Systeme aufbauen oder agentenbasierte Automatisierung erforschen: Das Verständnis dieses Paradigmenwechsels ist entscheidend, um fundierte Architekturentscheidungen zu treffen.
Das Model Context Protocol verstehen: Was es ist und warum es entstand
Das Model Context Protocol stellt einen bedeutenden Versuch dar, die Entwicklung von KI-Agenten zu standardisieren. Im Kern ist MCP ein offener Standard, der darauf ausgelegt ist, KI-Agenten mit externen Systemen, APIs und Datenquellen zu verbinden. Die grundlegende Idee hinter MCP ist elegant: Statt dass jeder Entwickler individuelle Integrationen zwischen seinen KI-Agenten und externen Tools erstellt, bietet MCP ein universelles Protokoll, mit dem Entwickler Integrationen einmalig implementieren und dann im gesamten Ökosystem teilen können. Diese Standardisierung war für die KI-Community wegweisend und ermöglichte eine nie dagewesene Zusammenarbeit und Tool-Sharing unter Entwicklern weltweit.
Aus technischer Sicht ist MCP im Wesentlichen eine API-Spezifikation, die für den Konsum durch KI-Agenten und nicht durch menschliche Entwickler optimiert ist. Während herkömmliche APIs auf das Entwicklererlebnis ausgerichtet sind, sind MCPs speziell dafür konzipiert, von großen Sprachmodellen und autonomen Agenten konsumiert zu werden. Das Protokoll definiert, wie Agenten Informationen anfordern, wie Tools beschrieben werden und wie Ergebnisse für ein optimales Agentenverständnis formatiert sein sollten. Der Durchbruch von MCP war weniger das Protokoll selbst, sondern vielmehr die branchenweite Akzeptanz, die ein einheitliches Ökosystem schuf. Als Anthropic und andere große Akteure MCP standardisierten, bedeutete das für Entwickler, dass sie Tools einmal erstellen und diese nahtlos über verschiedene Agentenplattformen und Implementierungen hinweg nutzen konnten.
Das Wertversprechen von MCP ist überzeugend: Es verspricht, ein ganzes Integrationsökosystem zu erschließen, Entwicklungszeit zu verkürzen und Agenten Zugriff auf Tausende von Tools zu ermöglichen, ohne für jede Integration individuelle Entwicklungen vornehmen zu müssen. Diese Standardisierung führte zu einer rasanten Verbreitung von MCP-Servern in der Branche, wobei Entwickler spezialisierte Server für alles Mögliche von Datenbankzugriffen bis zu Drittanbieter-API-Integrationen schufen. Die Hoffnung war, dass mit der zunehmenden Zahl verfügbarer MCP-Server die Agenten immer leistungsfähiger und autonomer würden, um immer komplexere Aufgaben durch ein reichhaltiges Ökosystem vorgefertigter Tools zu bewältigen.
Die versteckten Kosten von MCP: Warum Tokenverbrauch und Agentenautonomie entscheidend sind
Während MCP das Standardisierungsproblem löste, brachte es neue Herausforderungen mit sich, die umso deutlicher werden, je weiter KI-Agenten entwickelt und im großen Maßstab eingesetzt werden. Das gravierendste Problem ist der übermäßige Tokenverbrauch, der sich direkt auf die Kosten und die Leistung der Agenten auswirkt. Um zu verstehen, warum dies geschieht, muss man sich ansehen, wie MCP-Server typischerweise implementiert sind und wie Agenten in der Praxis mit ihnen interagieren.
Wenn ein KI-Agent eine Verbindung zu einem MCP-Server aufbaut, erhält er umfassende Dokumentationen zu jedem verfügbaren Tool auf diesem Server. Ein typischer MCP-Server enthält zwischen 20 und 30 verschiedene Tools, jedes mit detaillierten Beschreibungen, Parameterangaben und Anwendungsbeispielen. In realen Einsätzen verbinden Unternehmen nur selten einen einzigen MCP-Server mit ihren Agenten. Stattdessen werden meist fünf, sechs oder noch mehr MCP-Server integriert, um den Agenten vielfältige Möglichkeiten zu verschaffen. Das bedeutet, dass selbst wenn ein Agent nur ein bestimmtes Tool benötigt, das gesamte Kontextfenster mit Beschreibungen und Metadaten aller verfügbaren Tools aus allen verbundenen Servern gefüllt wird. Dies ist die erste große Quelle für Tokenverschwendung: Agenten müssen Informationen zu Tools mitführen, die sie gar nicht brauchen, was sowohl die Latenz als auch die Kosten erhöht und möglicherweise die Halluzinationsrate steigert.
Die zweite große Quelle des Tokenverbrauchs sind Zwischenergebnisse der Tools. Betrachten wir einen praktischen Anwendungsfall: Ein Agent muss ein Transkript aus Google Drive abrufen, um bestimmte Informationen zu extrahieren. Das MCP-Tool zum Abrufen von Dokumenten könnte 50.000 Tokens an Inhalt zurückgeben, bei größeren Dokumenten sogar mehr als das Kontextfenster aufnehmen kann. Der Agent benötigt aber vielleicht nur den ersten Absatz oder einen bestimmten Abschnitt des Transkripts. Dennoch wird das gesamte Dokument durch das Kontextfenster geschleust, was unnötig Tokens verbraucht und möglicherweise die Kontextgrenzen überschreitet. Diese Ineffizienz potenziert sich bei mehreren Tool-Aufrufen, und in komplexen Agenten-Workflows mit Dutzenden von Schritten wird die Tokenverschwendung enorm.
Jenseits des Tokenverbrauchs gibt es ein tieferes architektonisches Problem: MCP reduziert die Autonomie der Agenten. Jede hinzugefügte Abstraktionsschicht schränkt ein, was der Agent tun kann und wie flexibel er Probleme lösen kann. Wenn Agenten gezwungen sind, innerhalb der Grenzen vordefinierter Tool-Definitionen und fester MCP-Schnittstellen zu arbeiten, verlieren sie die Fähigkeit, sich anzupassen, Daten auf neue Weise zu transformieren oder maßgeschneiderte Lösungen für spezielle Probleme zu entwickeln. Der eigentliche Zweck, KI-Agenten zu bauen, ist die autonome Ausführung von Aufgaben – doch die Abstraktionsschicht von MCP wirkt diesem Ziel entgegen, indem sie die Flexibilität und Entscheidungsfreiheit der Agenten einschränkt.
Warum Codeausführung die überlegene Abstraktion für KI-Agenten ist
Der alternative Ansatz, der zunehmend an Bedeutung gewinnt, begegnet diesen Einschränkungen, indem er eine grundlegende Fähigkeit moderner Sprachmodelle nutzt: die Codegenerierung. Statt sich auf vordefinierte Tool-Definitionen und feste MCP-Schnittstellen zu stützen, erlaubt dieser Ansatz den Agenten, Code direkt zu generieren und auszuführen, APIs und Tools also per Code und nicht über ein standardisiertes Protokoll anzusprechen. Dies bedeutet ein grundlegendes Umdenken, wie Agenten mit externen Systemen interagieren sollten.
Die Architektur dieses Codeausführungsansatzes ist bestechend einfach. Anstatt sich mit MCP-Servern zu verbinden, pflegt das System eine strukturierte Ordnerhierarchie, in der jeder Ordner einen MCP-Server repräsentiert und innerhalb derer Unterordner für spezifische Tool-Kategorien einfache TypeScript-Dateien mit den einzelnen Tools enthalten. Wenn ein Agent ein Tool nutzen möchte, sucht er nicht nach einer vordefinierten Beschreibung im Kontextfenster, sondern generiert Code, der das benötigte Tool aus dem entsprechenden Ordner importiert und direkt aufruft. Dieser Ansatz verändert grundlegend, wie Informationen durch das System fließen und wie Agenten mit externen Fähigkeiten interagieren.
Die Leistungssteigerungen durch diesen Ansatz sind enorm. Indem dem Agenten nur das jeweils benötigte Tool in das Kontextfenster gegeben wird – und nicht alle Tools aller verbundenen Server – sinkt der Tokenverbrauch für Tool-Definitionen drastisch. Noch bedeutender: Agenten können nun Zwischenergebnisse intelligent handhaben. Statt ein 50.000-Tokens-Dokument durch das Kontextfenster zu schleusen, kann der Agent das Dokument im Dateisystem speichern und nur die benötigten Informationen extrahieren. In realen Implementierungen hat sich gezeigt, dass dieser Ansatz den Tokenverbrauch im Vergleich zu herkömmlichen MCP-Implementierungen um bis zu 98 % reduziert, während die Leistung und Autonomie der Agenten gleichzeitig verbessert werden.
Progressive Offenlegung: Unbegrenzter Tool-Zugriff ohne Kontextüberladung
Einer der größten Vorteile des Codeausführungsansatzes ist das sogenannte “progressive disclosure” (progressive Offenlegung). Mit herkömmlichem MCP sind Agenten durch die Größe des Kontextfensters begrenzt – es gibt eine praktische Obergrenze, wie viele Tools verbunden werden können, bevor das Kontextfenster zu überladen ist. Mit Codeausführung entfällt diese Begrenzung praktisch. Ein Agent kann theoretisch Zugriff auf Tausende von MCP-Servern und Tools haben, lädt jedoch immer nur die Tools, die er gerade benötigt.
Dies wird durch eine Suchfunktion ermöglicht, mit der Agenten herausfinden können, welche Tools und MCP-Server verfügbar sind. Stößt ein Agent auf eine Aufgabe, für die er ein bisher unbekanntes Tool benötigt, kann er in den verfügbaren Tools suchen, das passende finden und importieren sowie nutzen. So entsteht eine grundlegend skalierbare Architektur, bei der die Anzahl verfügbarer Tools die Agentenleistung nicht beeinträchtigt. Unternehmen können umfassende Tool-Ökosysteme aufbauen, ohne sich um Limitierungen des Kontextfensters sorgen zu müssen – und Agenten können neue Tools entdecken und nutzen, ohne dass eine Neuinstallation oder Neukonfiguration nötig wäre.
Die praktischen Auswirkungen sind erheblich. Ein großes Unternehmen könnte Hunderte interner APIs, Datenbanken und Services haben, auf die die Agenten zugreifen sollen. Mit klassischem MCP würde dies ein unmöglich überladenes Kontextfenster erzeugen. Durch progressive Offenlegung via Codeausführung können Agenten das gesamte Ökosystem effizient nutzen, indem sie Tools bei Bedarf entdecken und verwenden. So werden wirklich umfassende Agentenfähigkeiten möglich – ohne die Leistungseinbußen traditioneller MCP-Implementierungen.
Datenschutz und Datensicherheit durch Codeausführung
Gerade Unternehmen in regulierten Branchen haben große Bedenken hinsichtlich Datenschutz und Datenexponierung. Bei der Nutzung von herkömmlichem MCP mit externen Modellanbietern wie Anthropic oder OpenAI werden alle über den Agenten laufenden Daten – darunter sensible Geschäftsdaten, Kundendaten und proprietäre Informationen – an die Infrastruktur des Modellanbieters übertragen. Für Unternehmen mit strengen Datenschutzvorgaben oder regulatorischen Anforderungen ist das häufig inakzeptabel.
Der Codeausführungsansatz bietet eine Lösung in Form eines “Data Harness”. Mit der Codeausführung in einer kontrollierten Umgebung kann eine Schicht implementiert werden, die sensible Daten automatisch anonymisiert oder schwärzt, bevor sie an externe Modellanbieter weitergegeben werden. Beispielsweise kann ein Tool, das Kundendaten aus einer Tabelle abruft, so angepasst werden, dass E-Mail-Adressen, Telefonnummern und andere personenbezogene Daten automatisch anonymisiert werden. Der Agent erhält trotzdem die benötigten Informationen, aber sensible Daten bleiben vor Dritten geschützt.
Gerade für Unternehmen, die mit Gesundheitsdaten, Finanzinformationen oder anderen regulierten Datentypen arbeiten, ist das besonders wertvoll. Unternehmen müssen sich nicht mehr zwischen Agentenfähigkeiten und Datenschutz entscheiden – sie bekommen beides: Der Agent erhält die Daten, die er für seine Aufgabe benötigt, aber sensible Informationen werden durch das Data Harness automatisch geschützt. Dieser Ansatz spricht insbesondere Unternehmenskunden an, die KI-Agenten einsetzen möchten, aber die Datenschutzimplikationen traditioneller MCP-Lösungen nicht akzeptieren können.
Zustandsspeicherung und Evolution der Agentenfähigkeiten
Die vielleicht transformierendste Stärke des Codeausführungsansatzes ist, dass Agenten eigene Fähigkeiten erstellen, speichern und weiterentwickeln können. Bei klassischen MCP-Implementierungen ist die Menge verfügbarer Tools zur Einsatzzeit festgelegt. Ein Agent kann nur die Tools nutzen, die ihm gegeben wurden – neue Tools erstellen oder bestehende ändern ist nicht möglich. Mit Codeausführung können Agenten neue Funktionen generieren und im Dateisystem speichern, wodurch persistente Fähigkeiten entstehen, die für spätere Aufgaben wiederverwendet werden können.
Diese Fähigkeit ist eng mit dem neuen Konzept der “Skills” in der Agentenarchitektur verwandt, das kürzlich von führenden KI-Forschungsorganisationen eingeführt wurde. Wir sollten Agenten nicht mehr als mit festem Fähigkeitsset betrachten, sondern als Systeme, deren Skillset im Laufe der Zeit wächst und sich weiterentwickelt. Trifft ein Agent auf eine Aufgabe, für die ihm eine Fähigkeit fehlt, kann er sie erstellen, testen und für die Zukunft speichern. Mit der Zeit werden Agenten immer leistungsfähiger und spezialisierter für ihre jeweiligen Domänen und Anwendungsfälle.
Die Auswirkungen auf die Agentenentwicklung sind enorm. Entwickler müssen nicht mehr im Voraus jedes mögliche Tool für den Agenten bauen – Agenten können neue Tools nach Bedarf selbst erstellen. Das fördert einen adaptiveren, lernorientierten Entwicklungsansatz, bei dem Fähigkeiten organisch aus tatsächlichen Nutzungsmustern und Anforderungen entstehen. Ein Agent in einer bestimmten Domäne kann so ein umfassendes Set spezialisierter Skills entwickeln, die ein Entwickler womöglich nie explizit vorgesehen hätte.
Die Codeausführungsarchitektur von FlowHunt
FlowHunt hat die Grenzen klassischer MCP-Implementierungen erkannt und die eigene Agenteninfrastruktur um den Ansatz der Codeausführung herum aufgebaut. Diese Entscheidung spiegelt ein tiefes Verständnis dafür wider, was Agenten wirklich autonom und effektiv macht. Durch die Implementierung von Codeausführung als primären Mechanismus für die Agenten-Tool-Interaktion ermöglicht FlowHunt es seinen Nutzern, Agenten zu bauen, die effizienter, autonomer und kostengünstiger sind als klassische MCP-Lösungen.
Die FlowHunt-Plattform stellt die notwendige Infrastruktur bereit, um Codeausführung sicher und zuverlässig umzusetzen. Dazu gehören eine sichere Sandbox-Umgebung, in der Agenten gefahrlos Code generieren und ausführen können, umfassendes Logging und Monitoring zur Verhaltensüberwachung der Agenten sowie integrierte Datenschutzmechanismen für den sensiblen Umgang mit Informationen. Anstatt, dass Benutzer diese Infrastruktur selbst aufbauen müssen, bietet FlowHunt sie als Managed Service – so können sich Nutzer auf die Entwicklung effektiver Agenten konzentrieren, nicht auf Infrastrukturmanagement.
Das FlowHunt-Konzept beinhaltet zudem die progressive Offenlegung, sodass Benutzer Hunderte oder Tausende von Tools und APIs verbinden können, ohne dass die Leistung leidet. Die Plattform kümmert sich um Tool-Discovery, Codegenerierung und -ausführung – optimiert für Leistung und Zuverlässigkeit. Benutzer können umfassende Agenten-Ökosysteme aufbauen, die im Laufe der Zeit wachsen und sich weiterentwickeln, und Agenten können neue Fähigkeiten bei Bedarf entdecken und nutzen.
Praktische Einschränkungen und Kompromisse der Codeausführung
Trotz der erheblichen Vorteile des Codeausführungsansatzes ist es wichtig, dessen Grenzen und Kompromisse zu berücksichtigen. Die erste große Einschränkung ist die Zuverlässigkeit. Wenn Agenten bei jedem Toolaufruf Code generieren müssen, steigt die Fehleranfälligkeit. Ein Agent könnte syntaktisch fehlerhaften Code erzeugen, logische Fehler beim Toolaufruf machen oder die benötigten Parameter einer API missverstehen. Das erfordert robuste Fehlerbehandlung, Retry-Mechanismen und möglicherweise eine menschliche Überwachung für kritische Aufgaben. Das klassische MCP mit seinen vordefinierten Tool-Definitionen und festen Schnittstellen ist von Natur aus zuverlässiger, weil es weniger Spielraum für Fehler gibt.
Die zweite Einschränkung ist der Infrastruktur-Aufwand. Codeausführung erfordert eine sichere Sandbox-Umgebung, in der Agenten Code ausführen können, ohne die Systemsicherheit zu gefährden oder auf nicht autorisierte Ressourcen zuzugreifen. Diese Sandbox muss vom Hauptsystem isoliert sein, kontrollierten Zugriff auf externe APIs bieten und auf Sicherheitsprobleme überwacht werden. Der Aufbau einer solchen Infrastruktur ist mit erheblichem technischen Aufwand verbunden. Unternehmen, die den Codeausführungsansatz verfolgen, müssen diese Infrastruktur entweder selbst entwickeln oder eine Plattform wie FlowHunt nutzen, die sie als Service bereitstellt.
Auch im Betrieb gibt es Besonderheiten: Codeausführung verlangt ausgefeilteres Monitoring und Logging, um zu verstehen, was Agenten tun und um Probleme analysieren zu können. Das klassische MCP mit seinen festen Tool-Definitionen ist leichter zu überwachen, da die möglichen Aktionen stärker begrenzt sind. Mit Codeausführung erhalten Agenten mehr Freiheiten – damit steigt aber auch die Zahl möglicher unerwarteter Verhaltensweisen, die analysiert werden müssen.
Wann MCP weiterhin sinnvoll ist: Anwendungsfälle und Szenarien
Trotz der Vorteile der Codeausführung wird MCP nicht obsolet. Es gibt bestimmte Szenarien, in denen MCP weiterhin die richtige Wahl ist. Einfache, klar definierte Anwendungsfälle mit geringer API-Komplexität eignen sich gut für MCP. Beispielsweise im Kundensupport: Wenn ein Agent Support-Tickets erstellen, Ticket-Status abfragen oder auf eine Wissensdatenbank zugreifen soll, ist die Flexibilität der Codeausführung nicht nötig. Die APIs sind einfach, die Datenverarbeitung minimal und die Zuverlässigkeit der festen Schnittstellen von MCP wiegt die Flexibilität der Codeausführung auf.
MCP ist auch sinnvoll, wenn Tools für viele verschiedene Agenten und Organisationen bereitgestellt werden sollen. Möchten Sie ein Tool bauen, das im Ökosystem geteilt werden soll, ist die Implementierung als MCP-Server der Weg, es breit zugänglich zu machen. Der Standardisierungsvorteil von MCP ist groß für die Tool-Verbreitung und den Aufbau eines Ökosystems – auch wenn es für die Leistung eines einzelnen Agenten nicht optimal ist.
Außerdem bietet MCP für Organisationen ohne Infrastruktur-Expertise oder Ressourcen zur sicheren Implementierung von Codeausführung einen einfacheren Weg zur Agentenentwicklung. Der Kompromiss besteht in etwas weniger Leistung und Autonomie, aber Einfachheit und Zuverlässigkeit können in manchen Fällen wichtiger sein.
Das übergeordnete Architekturprinzip: Weniger Abstraktionsschichten
Der Wandel von MCP zur Codeausführung spiegelt ein übergeordnetes Architekturprinzip wider: Jede zusätzliche Abstraktionsschicht in einem Agentensystem verringert dessen Autonomie und Flexibilität. Wenn Sie Agenten zwingen, über vordefinierte Schnittstellen und feste Tool-Definitionen zu arbeiten, begrenzen Sie ihre Möglichkeiten. Moderne Sprachmodelle sind heute so gut im Generieren von Code, dass es sinnvoll ist, sie direkt mit Code und APIs arbeiten zu lassen, statt sie durch zusätzliche Abstraktionsschichten zu zwingen.
Dieses Prinzip reicht über MCP hinaus. Es legt nahe, dass wir Agenten – je leistungsfähiger sie werden – so direkt wie möglich Zugang zu den Systemen und Daten geben sollten, die sie benötigen, statt immer mehr Abstraktionsschichten übereinanderzulegen. Jede Schicht erhöht die Komplexität, steigert den Tokenverbrauch und reduziert die Anpassungsfähigkeit der Agenten bei der Lösung neuer Probleme. Die effektivsten Agentenarchitekturen werden wahrscheinlich diejenigen sein, die unnötige Abstraktionen minimieren und Agenten möglichst direkt mit den Zielsystemen interagieren lassen.
Das bedeutet nicht, dass alle Abstraktionen abgeschafft werden sollten – ein gewisses Maß an Struktur und Sicherheitsmechanismen ist notwendig. Es geht vielmehr darum, bewusst zu entscheiden, welche Abstraktionen wirklich gebraucht werden und warum. Die Codeausführung ist ein direkterer, weniger abstrahierter Ansatz für den Bau von Agenten – und die Leistungsgewinne zeigen, dass sich der Mehraufwand für die Infrastruktur lohnt.
Implementierungshinweise und Best Practices
Für Organisationen, die einen Wechsel von MCP zu Codeausführung erwägen, gibt es einige wichtige Aspekte zu beachten. Erstens: Sie benötigen eine sichere Sandbox-Umgebung. Das kann ein containerisiertes System, eine virtuelle Maschine oder ein spezialisierter Dienst für sichere Codeausführung sein. Die Sandbox muss vom Hauptsystem isoliert, mit kontrolliertem Netzwerkzugriff versehen und auf Sicherheitsprobleme überwacht werden. Zweitens: Sie brauchen eine umfassende Fehlerbehandlung und Retry-Logik. Da Agenten Code generieren, müssen Sie auf Syntaxfehler, logische Fehler und API-Fehlschläge vorbereitet sein. Ihr System sollte diese Fehler erkennen, dem Agenten sinnvolles Feedback geben und Wiederholungen oder alternative Ansätze ermöglichen.
Drittens: Klare Konventionen für die Organisation und Benennung der Tools sind entscheidend. Die Ordnerstruktur und Namenskonventionen haben einen großen Einfluss darauf, wie leicht Agenten Tools finden und nutzen können. Gut strukturierte, klar benannte Tools sind für Agenten leichter auffindbar und nutzbar. Viertens: Datenschutz-Mechanismen sollten von Anfang an implementiert werden. Ob durch Anonymisierung, Schwärzung oder andere Techniken – Sie sollten eine klare Strategie haben, wie Sie sensible Daten im Agentensystem schützen.
Schließlich sollten Sie in Monitoring und Observability investieren. Codeausführung bringt mehr Komplexität und mehr Möglichkeiten für unerwartetes Verhalten. Umfassendes Logging, Monitoring und Alarmierungsfunktionen helfen Ihnen zu verstehen, was Ihre Agenten tun, und Probleme schnell zu erkennen und zu beheben.
Die Zukunft der Agentenarchitektur
Der Wandel von MCP zur Codeausführung bedeutet eine grundlegende Weiterentwicklung unseres Verständnisses von KI-Agentenarchitektur. Je leistungsfähiger und verbreiteter Agenten werden, desto deutlicher zeigt sich, dass die für frühere, weniger leistungsfähige Systeme geschaffenen Abstraktionen heute eher Einschränkungen als Ermöglicher sind. Die Zukunft der Agentenarchitektur wird wahrscheinlich noch direktere Interaktion zwischen Agenten und Zielsystemen bedeuten – mit weniger Zwischenschichten.
Diese Entwicklung wird vermutlich von Verbesserungen bei Zuverlässigkeit und Sicherheit der Agenten begleitet. Je mehr wir Agenten direkten Zugriff auf Systeme geben, desto bessere Mechanismen brauchen wir, um deren Zugriff verantwortungsvoll zu steuern. Das kann ausgefeilteres Sandboxing, besseres Monitoring und Auditing oder neue Ansätze zur Agentenausrichtung und -kontrolle bedeuten. Ziel ist es, die Autonomie und Effektivität der Agenten zu maximieren, ohne auf notwendige Sicherheitsmechanismen zu verzichten.
Auch die Art und Weise, wie Agenten Tools entdecken und nutzen, wird sich weiterentwickeln. Progressive Offenlegung ist ein Fortschritt – aber es werden noch ausgeklügeltere Ansätze für Tool-Discovery und -Auswahl entstehen, je weiter das Feld reift. Agenten könnten lernen, vorherzusagen, welche Tools sie benötigen, oder ihre Tool-Auswahl nach Leistungsmerkmalen und Kosten optimieren.
Der Codeausführungsansatz eröffnet zudem die Möglichkeit, dass Agenten ihre eigene Leistung über die Zeit optimieren. Ein Agent könnte Code generieren, um ein Problem zu lösen, und diesen dann analysieren, um Optimierungen zu erkennen. Mit der Zeit entwickeln Agenten so immer ausgefeiltere und effizientere Lösungen für wiederkehrende Probleme – sie lernen und verbessern sich durch Erfahrung.
Fazit
Das Aufkommen der Codeausführung als Alternative zu MCP markiert einen grundlegenden Wandel in der Agentenarchitektur. Indem Agenten Code direkt generieren und ausführen können – statt über vordefinierte Tool-Definitionen und feste Schnittstellen zu arbeiten – lassen sich der Tokenverbrauch drastisch reduzieren, die Autonomie der Agenten steigern und komplexere Fähigkeiten ermöglichen. MCP wird weiterhin in bestimmten Szenarien und für die Tool-Verbreitung eine Rolle spielen, doch die Codeausführung erweist sich als der überlegene Ansatz für leistungsfähige, autonome KI-Agenten. Die Reduktion des Tokenverbrauchs um 98 % bei gleichzeitiger Steigerung von Leistung und Autonomie zeigt, dass dieser architektonische Wandel nicht nur theoretisch sinnvoll, sondern auch praktisch wertvoll ist. Je mehr Unternehmen fortschrittliche KI-Agentensysteme bauen, desto wichtiger wird es, diese Entwicklung zu verstehen und fundierte Entscheidungen über den passenden Ansatz zu treffen. Die Zukunft der KI-Agenten liegt nicht im Hinzufügen weiterer Abstraktionsschichten, sondern im Abbau unnötiger Schichten – und darin, Agenten den direkten Zugang und die Flexibilität zu geben, die sie brauchen, um komplexe Probleme autonom und effizient zu lösen.