Context Engineering für KI-Agenten: Die Kunst, LLMs mit den richtigen Informationen zu versorgen

Context Engineering für KI-Agenten: Die Kunst, LLMs mit den richtigen Informationen zu versorgen

AI Agents LLM Context Management Engineering

Einführung

KI-Agenten zu entwickeln, die zuverlässig in der Produktion funktionieren, unterscheidet sich grundlegend vom Bau einfacher Chat-Anwendungen. Während Chatmodelle mit einem relativ statischen Kontextfenster arbeiten – im Wesentlichen der Nutzeranfrage und Systemanweisung – stehen Agenten vor einer weitaus komplexeren Herausforderung. Agenten führen Tool-Aufrufe in Schleifen durch, und jede Tool-Ausgabe wird Teil des Kontexts, den das LLM im nächsten Schritt verarbeiten muss. Diese dynamische Kontextansammlung schafft das, was viele Praktiker inzwischen das „Kontext-Engineering“-Problem nennen. Als 2024 immer mehr Teams Agenten entwickelten, wurde klar: Kontextmanagement ist keine triviale Aufgabe. Es ist vermutlich die wichtigste technische Herausforderung beim Bau produktionsreifer Agenten. Dieser Artikel beleuchtet Prinzipien, Strategien und praktische Techniken des Kontext-Engineerings, die Ihnen helfen, Agenten zu bauen, die effizient skalieren, Leistung erhalten und die Kosten im Griff behalten.

Thumbnail for Context Engineering for Agents - Lance Martin, LangChain

Was ist Kontext-Engineering?

Kontext-Engineering steht für einen grundlegenden Wandel in der Entwicklung von KI-Systemen. Der Begriff wurde von Andrej Karpathy populär gemacht, der es als „die feine Kunst und Wissenschaft, das Kontextfenster mit genau den richtigen Informationen für den nächsten Schritt zu füllen“ beschrieb. Das Wesentliche daran: Das Kontextfenster eines LLM ist wie der Arbeitsspeicher eines Computers – es ist begrenzt, und alles, was Sie hineinschreiben, beeinflusst die Leistung direkt. So wie ein Betriebssystem genau steuert, welche Daten in den RAM passen, müssen Entwickler von Agenten sorgsam auswählen, welche Informationen zu jedem Ausführungsschritt ins LLM-Kontextfenster gelangen.

Das Konzept entstand aus einer gemeinsamen Erfahrung der KI-Engineering-Community. Als Entwickler begannen, ernsthaft Agenten zu bauen, stellten sie fest, dass der naive Ansatz – einfach alle Tool-Ausgaben zurück in die Nachrichtenhistorie zu geben – zu katastrophalen Problemen führte. Ein Entwickler, der etwa einen tiefgehenden Forschungsagenten baute, konnte feststellen, dass ein einzelner Lauf 500.000 Tokens verbrauchte und 1 bis 2 Dollar pro Ausführung kostete. Das war keine Schwäche der Agentenarchitektur – es war ein Versäumnis, den Kontext richtig zu gestalten. Das Problem ist nicht nur das Erreichen der Kontextfenster-Grenze, auch wenn das ein wichtiger Aspekt ist. Forschung von Chroma und anderen dokumentierte das Phänomen des „Kontextverfalls“ („context rot“): Die Leistung von LLMs nimmt ab, je länger der Kontext wird, selbst wenn das Modell theoretisch mehr Tokens verarbeiten kann. Mehr Informationen blind ins Kontextfenster zu stopfen, kostet also nicht nur mehr – es verschlechtert aktiv die Leistung Ihres Agenten.

Kontext-Engineering greift bei drei Haupt-Kontextarten, mit denen Agenten arbeiten: Anweisungen (Systemprompts, Erinnerungen, Few-Shot-Beispiele, Tool-Beschreibungen), Wissen (Fakten, historische Informationen, Fachkenntnisse) und Tools (Feedback und Ergebnisse aus Tool-Aufrufen). Jede davon erfordert eigene technische Ansätze, und die Herausforderung besteht darin, alle drei effektiv zu orchestrieren, während ein Agent dutzende bis hunderte Schritte durchläuft.

Warum Kontext-Engineering für produktionsreife KI-Agenten entscheidend ist

Die Bedeutung von Kontext-Engineering kann für Teams, die Agenten im großen Maßstab bauen, nicht überschätzt werden. Betrachten Sie die Größenordnung moderner Agentensysteme: Anthropics Multi-Agenten-Research-System arbeitet mit Agenten, die hunderte Tool-Aufrufe pro Aufgabe durchführen. Cognitions Forschung zur Agentenarchitektur zeigte, dass typische Produktionsagenten Unterhaltungen mit hunderten Runden führen. Multiplizieren Sie die Anzahl der Tool-Aufrufe mit den Tokenkosten jeder Tool-Ausgabe, wird schnell klar: Kontextmanagement ist die Hauptaufgabe beim Bau von KI-Agenten. Ohne richtiges Kontext-Engineering wird Ihr Agent wirtschaftlich untragbar und technisch unzuverlässig.

Das ökonomische Argument ist eindeutig. Wenn jeder Agentenlauf durch exzessiven Tokenverbrauch 1 bis 2 Dollar kostet und Sie täglich tausende Agenten laufen lassen, summieren sich die Kosten schnell auf mehrere Tausend Dollar täglich, die durch besseres Kontextmanagement eingespart werden könnten. Aber auch der Leistungsaspekt ist entscheidend. Mit zunehmender Kontextlänge erleben LLMs verschiedene Fehlerarten: Kontextvergiftung („context poisoning“), wenn eine Halluzination oder ein Fehler aus einem früheren Schritt in den Kontext gelangt und alle weiteren Entscheidungen beeinflusst. Kontextablenkung („context distraction“), wenn die schiere Informationsmenge das Modell überfordert. Kontextverwirrung („context confusion“), wenn überflüssige Informationen Antworten auf unerwartete Weise steuern. Kontextkonflikt („context clash“), wenn verschiedene Teile des Kontexts sich widersprechen und Unklarheit über den nächsten Schritt entsteht. Das sind keine theoretischen Probleme – es sind dokumentierte Fehlerquellen, die Teams regelmäßig begegnen, wenn sie Agenten ohne richtiges Kontext-Engineering bauen.

Besonders kritisch wird es für langlaufende Agenten. Ein Agent, der zu einem komplexen Thema recherchiert, Code schreibt, ihn debuggt und iteriert, macht 50 bis 100 Tool-Aufrufe. Ohne Kontext-Engineering wächst die Nachrichtenhistorie um alle Zwischenresultate, Debug-Ausgaben und Fehlversuche. Der Agent müsste Entscheidungen treffen, während er in irrelevanter Historie ertrinkt. Richtig umgesetzt, behält der Agent nur die nötigen Informationen für den aktuellen Schritt – das verbessert Leistung und Kosteneffizienz dramatisch.

Der Unterschied zwischen Prompt Engineering und Kontext-Engineering

Ein häufiger Irrtum ist die Gleichsetzung von Prompt Engineering und Kontext-Engineering. Beide Begriffe sind verwandt, aber unterschiedlich – das zu verstehen ist entscheidend. Prompt Engineering im klassischen Sinn bezeichnet die sorgfältige Ausarbeitung des Anfangsprompts – System- und Benutzernachricht –, den Sie an ein Sprachmodell senden. Bei ChatGPT oder Claude optimieren Sie diesen Prompt, um bessere Resultate zu erzielen. Sie verfeinern Anweisungen, fügen Beispiele hinzu, spezifizieren das gewünschte Ausgabeformat. Das ist Prompt Engineering – und bleibt wichtig.

Kontext-Engineering ist ein umfassenderes Konzept, das Prompt Engineering einschließt, aber weit darüber hinausgeht. Kontext-Engineering gilt speziell für Agenten, bei denen der Kontext nicht statisch, sondern dynamisch und sich entwickelnd ist. Beim Chatmodell ist die Nutzernachricht der Haupteingang, und der meiste Engineering-Aufwand fließt in deren Ausgestaltung. Beim Agenten ist das Spiel grundlegend anders: Der Agent bekommt Kontext nicht nur aus der Nutzeranfrage, sondern durch Tool-Aufrufe, die während seiner Ausführung stattfinden. In jedem Schritt fließt neues Kontextmaterial aus Tool-Ausgaben ein. Wird all das naiv in die Nachrichtenhistorie gegeben, wächst das Kontextfenster exponentiell mit jeder Runde.

Man kann es so sehen: Prompt Engineering optimiert die Anfangsbedingungen. Kontext-Engineering steuert den gesamten Informationsfluss über den Lebenszyklus des Agenten. Es umfasst Entscheidungen darüber, welche Tool-Ausgaben aufgenommen, wie sie zusammengefasst, wann die Nachrichtenhistorie komprimiert, ob Informationen ausgelagert werden und wie der Agentenzustand organisiert wird, um irrelevanten Kontext zu minimieren. Prompt Engineering ist ein Teilbereich des Kontext-Engineerings. System- und Nutzeranweisungen bleiben wichtig – sie sind Teil des zu gestaltenden Kontexts. Aber Kontext-Engineering deckt zusätzlich alle Strategien ab, um den dynamischen Kontext zu steuern, der sich im Verlauf der Agentenausführung ansammelt.

Die vier Kernstrategien des Kontext-Engineerings mit FlowHunt

Das praktischste Rahmenwerk für Kontext-Engineering teilt sich in vier komplementäre Strategien: schreiben, auswählen, komprimieren und isolieren. Diese Strategien können einzeln oder kombiniert umgesetzt werden und bilden das Fundament, wie produktionsreife Agenten ihren Kontext effektiv steuern. Jede Strategie zu verstehen und richtig einzusetzen, ist entscheidend für skalierbare Agenten.

Schreiben: Kontext auslagern mit Notizblöcken und Erinnerungen

Die „Schreiben“-Strategie speichert Kontext außerhalb des Kontextfensters, sodass er für den Agenten verfügbar bleibt, aber keine Tokens in der Nachrichtenhistorie verbraucht. Dies ist vermutlich die wirkungsvollste Technik, weil sie das Problem der Token-Anhäufung direkt adressiert. Statt alle Tool-Ausgaben in die Historie zu geben, schreiben Sie sie in ein externes System und behalten nur Referenz oder Zusammenfassung im Kontext.

Notizblöcke (Scratchpads) sind eine Umsetzung dieser Strategie. Das Konzept stammt vom menschlichen Problemlösen – wir machen Notizen, halten Zwischenergebnisse fest und greifen bei Bedarf darauf zurück. Agenten können das genauso tun. Im Multi-Agenten-Research-System von Anthropic etwa legt der LeadResearcher-Agent seinen Plan zu Beginn im Speicher ab. Das ist entscheidend, denn wenn das Kontextfenster 200.000 Tokens überschreitet, wird es abgeschnitten – der Plan darf nicht verloren gehen. Durch das Schreiben in einen Notizblock bleibt diese Information erhalten, auch wenn das Kontextfenster überläuft. Scratchpads können als Tool-Aufruf zum Dateisystem, als Feld im Laufzeitobjekt des Agenten (wie bei LangGraph) oder als Eintrag in einer Datenbank umgesetzt werden. Entscheidend ist, dass die Information extern gespeichert und bei Bedarf abgerufen werden kann.

Erinnerungen (Memories) erweitern das Konzept über mehrere Sitzungen oder Threads hinweg. Während Scratchpads einem Agenten bei einer einzelnen Aufgabe helfen, ermöglichen Erinnerungen, dass Agenten über viele Aufgaben hinweg lernen und sich verbessern. Das Reflexion-Framework führte das Prinzip der Reflexion ein – nach jedem Agenten-Schritt erzeugt der Agent eine Zusammenfassung des Gelernten als Erinnerung. Generative Agents gingen noch weiter und synthetisierten Erinnerungen regelmäßig aus vergangenen Feedbacks. Diese Konzepte fanden Eingang in bekannte Produkte wie ChatGPT, Cursor und Windsurf, die alle automatisch Langzeit-Erinnerungen über Sitzungen hinweg generieren. Ein Agent kann episodische Erinnerungen (Beispiele gewünschten Verhaltens), prozedurale Erinnerungen (Anleitungen für Aufgaben) und semantische Erinnerungen (Fakten, Fachwissen) speichern. Durch externe Auslagerung kann der Agent eine umfangreiche Wissensbasis pflegen, ohne das Kontextfenster aufzublähen.

Die Herausforderung besteht darin, zu entscheiden, was geschrieben und wie es organisiert wird. Sie sollten nicht alles schreiben – das würde das Ziel verfehlen. Schreiben Sie Informationen, die für künftige Schritte nützlich, aber nicht sofort nötig sind. Ein Forschungsagent speichert vielleicht ganze Artikel auf der Festplatte und hält nur eine Zusammenfassung im Kontext. Ein Code-Agent lagert den gesamten Code in das Dateisystem aus und behält nur die aktuell bearbeitete Datei im Kontext. Entscheidend ist, selektiv zu sein und sicherzustellen, dass im Kontext genug Information verbleibt, um zu wissen, was geschrieben wurde und wie es bei Bedarf abgerufen werden kann.

Auswählen: Relevanten Kontext ins Fenster holen

Die „Auswählen“-Strategie bestimmt, welcher Kontext in die Nachrichtenhistorie jedes Schritts aufgenommen wird. Hier entscheidet der Agent, welche Informationen für die aktuelle Entscheidung wirklich benötigt werden. Haben Sie Kontext extern gespeichert, brauchen Sie einen Mechanismus, um bei Bedarf Relevantes zurückzuholen. Das kann ein einfacher Tool-Aufruf zum Lesen einer Datei sein oder auch komplexer über Embeddings oder Wissensgraphen, um semantisch relevante Informationen zu finden.

Bei Scratchpads ist Auswahl meist einfach. Der Agent liest den Notizblock, wenn er den Plan oder vorherige Notizen braucht. Bei Erinnerungen ist Auswahl komplexer: Hat ein Agent hunderte Erinnerungen aus vielen Sitzungen angesammelt, kann er unmöglich alle in den aktuellen Kontext nehmen. Hier helfen Embeddings: Sie können jede Erinnerung einbetten und per semantischer Suche die relevantesten für die aktuelle Aufgabe finden. ChatGPTs Erinnerungssystem ist ein gutes Praxisbeispiel – es speichert nutzerspezifische Erinnerungen und wählt kontextrelevante für das aktuelle Gespräch aus.

Die Herausforderung ist, die richtige Information zu wählen. Wählen Sie zu wenig, fehlen dem Agenten wichtige Kontexte und er trifft schlechte Entscheidungen. Wählen Sie zu viel, kehren Sie zum Ursprungsproblem des aufgeblähten Kontexts zurück. Manche Agenten verwenden einfache Heuristiken: Bestimmte Dateien oder Erinnerungen werden immer aufgenommen (z. B. eine CLAUDE.md-Datei bei Claude Code, eine Regeln-Datei bei Cursor). Andere setzen auf fortgeschrittene Auswahlmechanismen wie semantische Ähnlichkeit oder explizite Agentenbegründung für Relevanz. Die beste Lösung hängt vom Anwendungsfall ab, aber das Prinzip bleibt: Seien Sie gezielt darin, welchen Kontext Sie zu welchem Schritt einfügen.

Komprimieren: Kontextgröße reduzieren, Information erhalten

Die „Komprimieren“-Strategie verkleinert den Kontext, erhält aber die nötigen Informationen für den Agenten. Das ist etwas anderes als einfaches Löschen – Komprimieren bedeutet, Informationen zusammenzufassen, zu abstrahieren oder umzustrukturieren, um sie kompakter darzustellen. Besonders beim Management der Nachrichtenhistorie über viele Agentenschritte ist Komprimierung wichtig. Auch mit Auslagerung und Auswahl kann die Historie wachsen. Komprimierung hält sie überschaubar.

Ein Ansatz ist die Zusammenfassung. Wenn ein Agent eine Arbeitsphase beendet, können Sie den Verlauf zusammenfassen und die detaillierten Protokolle durch die Zusammenfassung ersetzen. Hat ein Agent etwa 10 Schritte zu einem Thema recherchiert und 10 Tool-Aufrufe gemacht, können Sie all das durch eine einzige Zusammenfassung ersetzen: „Thema X recherchiert, wichtigste Erkenntnis: Y.“ Das bewahrt die Kernaussage bei drastischer Reduktion des Tokenverbrauchs. Die Herausforderung: Die Zusammenfassung muss so gestaltet sein, dass der Agent später entscheiden kann, ob er Details nachladen muss.

Cognitions Forschung zur Agentenarchitektur betont, dass die Zusammenfassung erhebliche Engineering-Aufmerksamkeit verdient. Sie setzen sogar speziell trainierte Modelle für Zusammenfassungen ein, damit alle relevanten Informationen erfasst werden. Entscheidend ist das Prompt Engineering der Zusammenfassung: Die Zusammenfassungsanweisung sollte möglichst viele Stichpunkte aus dem Originalkontext erfassen, damit der Agent später erkennt, ob Details nachgeladen werden müssen. Das unterscheidet sich von „freier“ Zusammenfassung – es geht um Komprimierung mit hoher Rückholbarkeit.

Eine weitere Komprimierungstechnik sind Agentengrenzen. In Multi-Agenten-Systemen kann Kontext an den Übergängen zwischen Agenten komprimiert werden. Wenn ein Agent die Arbeit an einen anderen übergibt, wird nicht die gesamte Historie weitergegeben, sondern eine komprimierte Zusammenfassung der bisherigen Ergebnisse und das, was der nächste Agent wissen muss. Hier wird der Unterschied zwischen Einzel- und Multi-Agenten-Systemen wichtig: Multi-Agenten-Systeme schaffen natürliche Punkte für Komprimierung und Kontextisolation, auch wenn sie Kommunikation verkomplizieren.

Isolieren: Kontexttrennung über mehrere Agenten

Die „Isolieren“-Strategie setzt auf mehrere Agenten mit jeweils eigenem Kontext statt eines Agenten mit monolithischem Kontext. Das ist der Multi-Agenten-Ansatz und besonders nützlich für komplexe Aufgaben, die sich natürlich in Teilaufgaben zerlegen lassen. Durch Kontexttrennung kann das Kontextwachstum begrenzt und jeder Agent auf seine Rolle fokussiert werden.

Das Argument für Multi-Agenten-Systeme ist aus Kontext-Engineering-Sicht überzeugend. Ein einzelner Agent, der Recherche, Schreiben und Editieren übernimmt, hätte ein Kontextfenster, das Informationen zu allen drei Aufgaben enthält. Doch beim Schreiben braucht er die Recherchedetails nicht mehr – nur die wichtigsten Erkenntnisse. Beim Editieren ebenso wenig. Durch separate Agenten für Recherche, Schreiben und Editieren kann der Kontext jedes Agenten auf die jeweilige Aufgabe optimiert werden: Der Recherche-Agent mit Recherchetools und -kontext, der Schreib-Agent mit Schreibtools und Ergebnissen, der Editier-Agent mit Editierwerkzeugen und dem zu bearbeitenden Entwurf. Jeder Kontext bleibt kleiner und gezielter.

Die Herausforderung bei Multi-Agenten-Systemen ist die Kommunikation. Wenn ein Agent Arbeit übergibt, muss ausreichend Kontext mitgegeben werden. Hier ist die Komprimierungsstrategie entscheidend: Der Recherche-Agent muss seine Ergebnisse so komprimieren, dass der Schreib-Agent sie nutzen kann; der Schreib-Agent muss den Entwurf so komprimieren, dass der Editier-Agent damit arbeiten kann. Cognitions Forschung betont, dass dieser Kommunikationsaufwand beträchtlich ist und sorgfältiges Engineering erfordert. Richtig umgesetzt können Multi-Agenten-Systeme das Kontextwachstum jedoch deutlich reduzieren und die Gesamtleistung steigern.

Die Workflow-Automatisierung von FlowHunt eignet sich besonders zur Umsetzung Multi-Agenten-Systemen mit sauberer Kontextisolation. Durch die Definition klarer Workflows mit unterschiedlichen Agenten und expliziten Übergabepunkten wird sichergestellt, dass Kontext in jedem Schritt effizient gehandhabt wird. FlowHunt erlaubt Ihnen, den Zustand, der zwischen Agenten fließt, zu definieren, Komprimierung an Übergabepunkten zu implementieren und das Kontextmanagement im gesamten Agentensystem zu überwachen.

Von der Theorie zur Praxis: Umsetzung in der Produktion

Die vier Strategien zu kennen ist das eine – sie wirkungsvoll umzusetzen das andere. Schauen wir ein konkretes Beispiel an: einen tiefgehenden Forschungsagenten bauen. Eine naive Umsetzung würde den Agenten eine Reihe von Websuchen durchführen lassen, alle Suchergebnisse in die Nachrichtenhistorie aufnehmen und daraus Erkenntnisse synthetisieren. Das wird schnell teuer und ineffektiv. Eine gut gestaltete Lösung nutzt alle vier Strategien.

Erstens nutzt der Agent „Schreiben“, um vollständige Artikel auf der Festplatte zu speichern, statt den ganzen Text in die Nachrichtenhistorie zu nehmen – im Kontext bleibt nur Referenz oder Zusammenfassung. Zweitens nutzt er „Auswählen“, um beim Zusammenfassen nur die relevantesten Artikel einzubeziehen. Drittens komprimiert er („Komprimieren“) die Forschungsergebnisse zu Stichpunkten, bevor der nächste Schritt beginnt. Viertens, falls die Aufgabe komplex genug ist, setzt er „Isolieren“ ein: separate Agenten für Recherche, Synthese und Schreiben, jeweils mit optimiertem Kontext.

Die Details der Umsetzung sind entscheidend. Beim Schreiben: Wo werden Artikel gespeichert – Dateisystem, Datenbank, Vektorstore? Beim Auswählen: Wie werden relevante Artikel gefunden – Schlagwortsuche, semantische Suche, explizite Agentenlogik? Beim Komprimieren: Wie wird die Zusammenfassung so prompt-instruiert, dass hohe Rückholbarkeit gewährleistet ist? Beim Isolieren: Wie werden Agentengrenzen und Kommunikationsprotokolle definiert?

Eine wichtige Erkenntnis aus der Praxis: Kontext-Engineering ist keine einmalige Optimierung – es ist ein kontinuierlicher Prozess. Während Ihr Agent arbeitet, sollten Sie das Kontextaufkommen beobachten, Engpässe lokalisieren und das Kontextmanagement iterativ verbessern. Tools wie LangGraph geben Einblick in Agentenzustand und Kontextfluss, sodass Sie erkennen, wo Kontext unnötig akkumuliert. FlowHunt erweitert das um Workflow-Transparenz: Sie sehen, wie Kontext durch Ihr ganzes Agentensystem fließt und erkennen Optimierungspotenziale.

Herausforderungen und Lösungen aus der Praxis

Produktionsreife, kontext-engineerte Agenten offenbaren Herausforderungen, die in der Theorie oft übersehen werden. Eine ist das „Kontextauswahlproblem“: Wie erkennen Sie, welcher Kontext wirklich relevant ist? Ein Agent kann Zugriff auf Hunderte Dokumente, Tausende Erinnerungen oder große Mengen historischer Daten haben. Die richtige Auswahl zu treffen, ist anspruchsvoll. Semantische Suche mit Embeddings hilft, ist aber nicht perfekt. Manchmal ist die wichtigste Information etwas, das der Agent nicht suchen würde. Einige Teams lassen Agenten explizit begründen, welchen Kontext sie brauchen, und gezielt Tool-Aufrufe machen. Andere kombinieren semantische Suche mit expliziter Agentenlogik.

Ein weiteres Problem ist die „Qualität der Zusammenfassung“: Wie fassen Sie Kontext zusammen, ohne kritische Informationen zu verlieren? Eine schlecht zusammengefasste Historie kann zu Fehlentscheidungen führen. Die Lösung: In den Zusammenfassungsschritt investieren. Das Zusammenfassungsmodell sorgfältig prompten. Verschiedene Ansätze testen. Gegebenenfalls ein feinabgestimmtes Modell verwenden. Beobachten, ob der Agent Entscheidungen trifft, die darauf hindeuten, dass ihm relevante Informationen fehlen.

Eine dritte Herausforderung ist die „Multi-Agenten-Kommunikation“: Wie stellen Sie sicher, dass Kontext zwischen Agenten effektiv übergeben wird? Hier sind explizite Protokolle wichtig. Definieren Sie genau, welche Informationen jeder Agent an den nächsten übergeben muss. Nutzen Sie strukturierte Formate (z. B. JSON) statt Freitext. Fügen Sie Metadaten hinzu, damit der empfangende Agent weiß, was der Kontext enthält. Testen Sie das Protokoll mit realistischen Szenarien.

Messen und Überwachen des Kontext-Engineerings

Effektives Kontext-Engineering erfordert Messung. Sie müssen wissen, wie viel Kontext Ihr Agent nutzt, wo er sich ansammelt und wie er sich auf die Leistung auswirkt. Wichtige Kennzahlen sind: Gesamttokens pro Lauf, Tokens pro Schritt, Auslastung des Kontextfensters sowie Leistungsmetriken wie Erfolgsquote und Antwortzeit. Durch die Verfolgung dieser Werte erkennen Sie, wann Ihr Kontext-Engineering funktioniert und wann nicht.

Tokenverbrauch ist die offensichtlichste Kennzahl. Verfolgen Sie, wie viele Tokens Ihr Agent pro Lauf und Schritt nutzt. Steigt der Verbrauch mit der Zeit, sammelt sich Kontext an. Ist der Verbrauch hoch im Verhältnis zur Aufgabenkomplexität, ist das Kontextmanagement verbesserungswürdig. Auch Kosten sind wichtig – ist Ihr Agent teuer im Betrieb, liegt das oft am Kontext.

Leistungsmetriken sind ebenso wichtig. Überwachen Sie, ob Ihr Agent mit wachsendem Kontext bessere oder schlechtere Entscheidungen trifft. Sinken die Leistungen bei längerem Kontext, ist das ein Anzeichen für Kontextverfall. Verbessert sich die Leistung durch besseres Kontextmanagement, bestätigt das Ihre Strategie. Erfolgsquote, Latenz und Fehlerrate sind nützliche Kennzahlen.

Die Analysefunktionen von FlowHunt erleichtern die Überwachung dieser Kennzahlen in Ihren Agenten-Workflows. Durch die Integration des Monitorings ins Workflow-Tool sehen Sie auf einen Blick, wie gut Ihr Kontext-Engineering funktioniert und wo Verbesserungen möglich sind.

Fortgeschrittene Muster: Ambient Agents und kontinuierliches Kontextmanagement

Mit der Reife der Agententechnologie entstehen immer ausgefeiltere Muster. Ambient Agents zum Beispiel sind Agenten, die kontinuierlich im Hintergrund laufen, Zustand und Kontext über viele Interaktionen hinweg behalten. Diese Agenten stehen vor einzigartigen Kontext-Engineering-Herausforderungen: Sie müssen über lange Zeiträume relevanten Kontext erhalten, ohne dass der Kontext ausufert. Die Lösung: ausgeklügeltes Erinnerungsmanagement, periodische Komprimierung und sorgfältige Kontextisolation.

Ein weiteres Muster ist kontinuierliches Kontextmanagement – statt den Kontext einmal zu Beginn zu gestalten, wird er laufend während der Agentenausführung optimiert und verfeinert. Das umfasst periodische Komprimierung der Nachrichtenhistorie, Entfernen irrelevanter Kontexte oder Umstrukturierung für bessere Leistung. Das verlangt ausgefeiltere Architekturen und bessere Tools, kann aber die Leistung langlaufender Agenten drastisch verbessern.

Diese fortgeschrittenen Muster werden noch weiterentwickelt, markieren aber die Zukunft des Agenten-Engineerings. Mit zunehmender Leistungsfähigkeit und Komplexität der Agenten wird auch das Kontext-Engineering immer raffinierter.

Bringen Sie Ihren Workflow mit FlowHunt auf das nächste Level

Erleben Sie, wie FlowHunt Ihre KI-Content- und SEO-Workflows automatisiert – von Recherche und Content-Erstellung bis hin zu Veröffentlichung und Analyse – alles an einem Ort.

Die Zukunft des Kontext-Engineerings

Kontext-Engineering ist noch eine relativ junge Disziplin, wird aber rasant zur Kernkompetenz für KI-Ingenieure. Mit steigender Leistungsfähigkeit von LLMs und zunehmender Komplexität der Agenten wächst auch die Bedeutung des Kontext-Engineerings. Wir werden ausgefeiltere Tools und Frameworks speziell für Kontextmanagement sehen. Mehr Forschung zu optimalen Strategien. Best Practices werden sich etablieren und festigen.

Vielversprechend ist die Entwicklung besserer Abstraktionen für das Kontextmanagement. Entwickler könnten zunehmend Frameworks nutzen, die Kontext-Engineering automatisch übernehmen, statt es manuell umzusetzen. LangGraph geht diesen Weg und bietet bessere Bausteine für das Management von Agentenzustand und Kontextfluss. FlowHunt erweitert dies mit Workflow-Abstraktionen, die die Implementierung von Kontext-Engineering-Mustern in komplexen Agentensystemen erleichtern.

Ebenso vielversprechend ist die Entwicklung besserer Metriken und Monitoring-Tools für das Kontext-Engineering. Je besser wir Kontextnutzung und deren Einfluss auf die Leistung messen können, desto gezielter können wir optimieren. Maschinelles Lernen könnte sogar zur automatischen Optimierung von Kontextstrategien auf Basis beobachteter Leistung beitragen.

Das Feld entwickelt sich schnell, und Best Practices entstehen gerade erst. Die Kernprinzipien sind jedoch klar: Kontext ist eine wertvolle Ressource, muss sorgfältig gestaltet werden – und der Aufwand für gutes Kontext-Engineering zahlt sich in Leistung, Zuverlässigkeit und Kosteneffizienz aus.

Fazit

Kontext-Engineering ist die Kunst und Wissenschaft, den Informationsfluss durch KI-Agenten so zu steuern, dass Leistung, Zuverlässigkeit und Kosten optimiert werden. Durch das Verständnis und die Umsetzung der vier Kernstrategien – schreiben, auswählen, komprimieren und isolieren – können Sie Agenten bauen, die effektiv skalieren und auch über viele Schritte hinweg leistungsfähig bleiben. Entscheidend ist: Kontextmanagement ist kein nachträglicher Gedanke oder eine kleine Optimierung – es ist die zentrale technische Herausforderung beim Bau produktionsreifer Agenten. Beginnen Sie mit der Messung Ihrer Kontextnutzung, identifizieren Sie unnötige Kontextansammlung und wenden Sie die passenden Strategien zur Optimierung an. Überwachen Sie die Ergebnisse und iterieren Sie weiter. Mit sorgfältigem Kontext-Engineering bauen Sie Agenten, die leistungsstark und effizient sind.

Häufig gestellte Fragen

Was ist Kontext-Engineering?

Kontext-Engineering ist die Kunst und Wissenschaft, das Kontextfenster eines LLMs zu jedem Schritt der Agentenlaufbahn mit genau den richtigen Informationen zu füllen. Es umfasst das Management von Anweisungen, Wissen und Tool-Feedback, um die Agentenleistung zu optimieren und gleichzeitig Token-Kosten und Leistungsabfall zu minimieren.

Worin unterscheidet sich Kontext-Engineering vom Prompt Engineering?

Prompt Engineering konzentriert sich auf die Ausarbeitung der anfänglichen System- und Benutzernachrichten für Chatmodelle. Kontext-Engineering ist umfassender und gilt speziell für Agenten, bei denen der Kontext dynamisch während der Agentenausführung durch Tool-Aufrufe entsteht. Es umfasst das Management aller Kontextquellen im gesamten Lebenszyklus des Agenten, nicht nur des Anfangsprompts.

Was sind die Hauptstrategien des Kontext-Engineerings?

Die vier Hauptstrategien sind: Schreiben (Kontext extern über Notizblöcke und Erinnerungen speichern), Auswählen (relevanten Kontext ins Fenster holen), Komprimieren (Kontextgröße reduzieren und Informationen erhalten) und Isolieren (Kontexte über mehrere Agenten trennen, um Störungen zu verhindern und Komplexität zu steuern).

Warum verbrauchen Agenten so viele Tokens?

Agenten machen mehrere Tool-Aufrufe hintereinander, und die Ausgabe jedes Tools wird zurück in das Kontextfenster des LLM gespeist. Ohne richtiges Kontextmanagement kann diese Anhäufung von Tool-Feedback schnell das Kontextfenster überschreiten, die Kosten drastisch erhöhen und die Leistung durch Kontextverfall und andere Fehlermodi beeinträchtigen.

Wie hilft FlowHunt beim Kontext-Engineering?

FlowHunt bietet Workflow-Automatisierungstools, die die Agentenausführung, den Kontextfluss und das Zustandsmanagement unterstützen. So können Sie Kontext-Engineering-Strategien wie Auslagerung, Komprimierung und Isolierung in Ihre Agenten-Workflows integrieren, Token-Kosten reduzieren und die Zuverlässigkeit verbessern.

Arshia ist eine AI Workflow Engineerin bei FlowHunt. Mit einem Hintergrund in Informatik und einer Leidenschaft für KI spezialisiert sie sich darauf, effiziente Arbeitsabläufe zu entwickeln, die KI-Tools in alltägliche Aufgaben integrieren und so Produktivität und Kreativität steigern.

Arshia Kahani
Arshia Kahani
AI Workflow Engineerin

Optimieren Sie das Kontextmanagement Ihres Agenten mit FlowHunt

Bauen Sie intelligentere KI-Agenten mit intelligentem Kontext-Engineering. FlowHunt hilft Ihnen, Agenten-Workflows zu steuern, die Token-Nutzung zu optimieren und Produktionsagenten effizient zu skalieren.

Mehr erfahren