Prompt-Komponente in FlowHunt

Die Prompt-Komponente in FlowHunt legt Rollen und Verhalten des Bots für personalisierte KI-Antworten fest. Steuern Sie die Ausgabe mit eigenen Vorlagen, um effektive, kontextbewusste Chatbots zu erstellen.

Prompt-Komponente in FlowHunt

Komponentenbeschreibung

So funktioniert die Prompt-Komponente in FlowHunt-Komponente

Ohne einen guten Prompt würden alle Bots gleich agieren und mit ihren Antworten oft das Ziel verfehlen. Prompts geben dem Sprachmodell Anweisungen und Kontext und helfen dabei, zu verstehen, welche Art von Text erzeugt werden soll.

Übersicht der Prompt-Komponente

Die Prompt-Komponente wurde entwickelt, um flexible Prompt-Vorlagen für den Einsatz in KI-Workflows zu generieren, wobei eine dynamische Einbindung von Variablen und Kontext möglich ist. Diese Komponente ist besonders nützlich in Konversations-KI-Szenarien wie Chatbots oder virtuellen Assistenten, bei denen anpassbare und kontextbewusste Prompts unerlässlich sind.

Was macht die Komponente?

Die Prompt-Komponente erstellt eine Prompt-Vorlage, die verschiedene dynamische Variablen wie Benutzereingabe, Chatverlauf, Systemanweisungen und Kontextnachrichten einbinden kann. Durch die Nutzung dieser Variablen hilft die Komponente, reichhaltige und kontextsensitive Prompts zu strukturieren, die die Leistung und Relevanz nachgelagerter KI-Modelle oder -Agenten verbessern.

Hauptfunktionen

  • Dynamische Vorlagen: Erstellen Sie Prompts, die automatisch verfügbare Informationen wie Chatverlauf, Benutzereingabe und Kontext einbinden.
  • Eigene Variablen: Unterstützt das Einfügen von Variablen wie {input}, {human_input}, {context}, {chat_history}, {system_message} und {all_input_variables} direkt in die Prompt-Vorlage.
  • Systemnachrichten-Unterstützung: Ermöglicht das Hinzufügen von systemweiten Anweisungen zur Beeinflussung des KI-Verhaltens.
  • Wiederverwendbar in Workflows: Die Ausgabe dieser Komponente kann als Eingabe für andere Komponenten, wie LLMs (Large Language Models) oder weitere Verarbeitungsschritte, verwendet werden.

Eingaben

Folgende Eingaben können der Prompt-Komponente bereitgestellt werden:

EingabenameTypErforderlichBeschreibung
ChatverlaufInMemoryChatMessageHistoryNeinVorherige Konversationsnachrichten. Nützlich, um Kontext zu erhalten oder alternative Anfragen zu generieren.
KontextMessageNeinZusätzliche Kontextinformationen, die in den Prompt eingebunden werden.
EingabeMessageNeinDie Haupteingabe oder Nachricht des Nutzers.
SystemnachrichtString (mehrzeilig)NeinSystemweite Anweisungen, um das Verhalten der KI zu steuern.
VorlagePrompt (mehrzeilig)NeinDie eigentliche Vorlage für den Prompt, unterstützt dynamische Variablen für die Anpassung.

Ausgaben

  • Nachricht:
    Die Komponente gibt ein einzelnes Nachrichtenobjekt aus, das den erstellten Prompt mit allen dynamischen, durch die entsprechenden Werte ersetzten Variablen enthält.
AusgabenameTypBeschreibung
NachrichtMessageDer generierte Prompt, einsatzbereit für nachgelagerte KI-Komponenten.

Beispielanwendungsfälle

  • Konversations-KI: Automatische Generierung von Prompts für Chatbots basierend auf Benutzereingaben, Chatverlauf und zusätzlichem Kontext.
  • Retrieval-Augmented Generation: Prompts für Retrieval-Aufgaben anpassen, indem relevante vergangene Interaktionen und Systemanweisungen eingebunden werden.
  • Instruction Tuning: Prompts für unterschiedliche Aufgaben oder Nutzer-Personas durch Anpassung der Vorlage und Systemnachricht leicht anpassen.

Warum diese Komponente verwenden?

  • Verbessert Prompt Engineering: Prompt-Vorlagen können einfach verwaltet und aktualisiert werden, ohne sie fest zu codieren.
  • Steigert KI-Relevanz: Durch Kontext, Systemnachrichten und Verlauf werden Prompts informativer und präziser.
  • Erhöht Flexibilität: Unterstützt eine Vielzahl von Anwendungsfällen, von einfachen Q&As bis hin zu komplexen, mehrstufigen Gesprächen.

Übersichtstabelle

FunktionVorteil
Dynamische VariableinbindungKontextbewusste, anpassbare Prompts
Unterstützung für ChatverlaufSichert Kontinuität in mehrstufigen Dialogen
Systemnachrichten-IntegrationFeinabstimmung der KI-Persönlichkeit oder Anweisungen
Einfache Integration in WorkflowsVereinfachte Prompt-Erstellung für nachgelagerte KI

Diese Komponente ist ein grundlegendes Werkzeug für alle, die anspruchsvolle, kontextsensitive KI-Workflows entwickeln, bei denen die Prompterstellung entscheidend für hochwertige Ergebnisse ist.

Vorlage

Dies ist eine fortgeschrittene, optionale Einstellung. Sie können Prompt-Vorlagen mit bestimmten Variablen erstellen, um die Chat-Ausgabe vollständig zu steuern. Zum Beispiel:

Als erfahrener SEO analysiere den Inhalt der URL und entwickle einen Titel mit bis zu 65 Zeichen.— Inhalt der URL —{input}Aufgabe: Generiere einen Titel ähnlich zu anderen mit der {human_input}-Anfrage. Ändere {human_input} im neuen Titel nicht. NEUER TITEL:

Die Standard-Prompt-Vorlage sieht so aus:

Du bist ein KI-Sprachmodell-Assistent.
Deine Aufgabe ist es, basierend auf der Eingabeanfrage eine Antwort zu generieren.
Wenn Kontext bereitgestellt wird, nutze ihn, um die Antwort auf die INPUT- und HUMAN_INPUT-Anfrage zu generieren.
Formatiere die Antwort mit Markdown.

ANTWORT IN SPRACHE: {lang}
VARIABLEN:
{"session_start_time": "2025-06-03 07:35:22", "current_page_url": "https://app.flowhunt.io/aistudio/flows/de6c2e2c-d817-4b2f-af2c-12dba3f46870?ws=74be5f74-d7c5-4076-839d-8ac1771a3b75"}
EINGABE: {input}

ANTWORT:

Der Standard-Prompt übernimmt die gleiche Struktur wie die Komponenteneinstellungen. Sie können die Einstellungen überschreiben, indem Sie die Variablen im Vorlagenfeld ändern und verwenden. Durch das Erstellen eigener Vorlagen haben Sie noch mehr Kontrolle über die Ausgabe.

Wie verbindet man die Prompt-Komponente mit dem Flow?

Der Prompt ist eine optionale Komponente, die die finale Ausgabe weiter modifiziert und konkretisiert. Sie muss mit mehreren Komponenten verbunden werden:

  • Chatverlauf: Der Chatverlauf muss nicht zwingend verbunden werden, ist jedoch oft vorteilhaft. Das Erinnern an vorherige Nachrichten macht zukünftige Antworten relevanter.
  • Kontext: Jeder sinnvolle Textoutput kann als Kontext dienen. Am häufigsten werden hier die Wissensergebnisse von Retrievern genutzt.
  • Eingabe: Hier kann nur die Chat Input-Komponente angeschlossen werden.

Die Ausgabe dieser Komponente ist Text, der mit verschiedenen Komponenten verbunden werden kann. Meist schließt sich direkt die Generator-Komponente an, um den Prompt mit einem LLM zu verbinden.

Beispiel

Erstellen wir einen ganz einfachen Bot. Wir erweitern das Beispiel mit dem mittelalterlichen Ritter-Bot von oben. Auch wenn er lustig spricht, ist seine Hauptaufgabe, ein hilfsbereiter Kundenservice-Bot zu sein, der relevante Informationen bereitstellt.

Stellen wir unserem Bot eine typische Kundenservice-Frage. Wir fragen nach den Preisen von URLsLab. Damit die Antwort erfolgreich ausfällt, müssen wir:

  • Kontext geben: Für dieses Beispiel nutzen wir die URL Retriever-Komponente, um ihm eine Seite mit allen notwendigen Informationen zu liefern.
  • Eingabe verbinden: Die Eingabe ist immer die menschliche Nachricht aus der Chat Input-Komponente.
  • Chatverlauf: Optional, aber für diesen Fall verbinden wir ihn.
  • Vorlage: Wir belassen es beim Prompt „Du bist ein hilfsbereiter Kundenservice-Bot, der wie ein mittelalterlicher Ritter spricht.“. Prompts können durchaus noch viel ausführlicher sein. Inspirationen finden Sie in unserer Prompt-Bibliothek.
  • Generator hinzufügen: Der Bot soll Konversationsfähigkeiten haben. Dazu verbinden wir den Generator. Der Prompt dient als Eingabe für den Generator.

Der resultierende Flow sieht dann zum Beispiel so aus:

Result flow using Prompt component in FlowHunt

Nun ist es Zeit, das Wissen unseres Ritter-Bots zu testen. Die von uns angegebene URL enthält die Preise von URLsLab. Also fragen wir danach:

Flowhunt bot answers according to Prompt

Unser Bot antwortet jetzt mit hochtrabender, altmodischer Sprache auf grundlegende Anfragen. Noch wichtiger ist jedoch, dass der Bot konsequent seine Hauptrolle als hilfsbereiter Kundenservice-Bot einhält und die Informationen aus der angegebenen URL erfolgreich nutzt.

Beispiele für Flow-Vorlagen mit der Prompt-Komponente in FlowHunt-Komponente

Um Ihnen den schnellen Einstieg zu erleichtern, haben wir mehrere Beispiel-Flow-Vorlagen vorbereitet, die zeigen, wie die Prompt-Komponente in FlowHunt-Komponente effektiv genutzt wird. Diese Vorlagen präsentieren verschiedene Anwendungsfälle und Best Practices und erleichtern Ihnen das Verständnis und die Implementierung der Komponente in Ihren eigenen Projekten.

Vorherige Nächste

Häufig gestellte Fragen

Was ist die Prompt-Komponente?

Die Prompt-Komponente gibt dem Bot Anweisungen und Kontext, damit er auf die gewünschte Weise antwortet.

Muss ich Prompt immer in meinen Flows einbinden?

Für viele Anwendungsfälle ist es eine gute Idee, aber die Komponente ist optional.

Was ist die Systemnachricht?

Es ist ein bearbeitbares Textfeld, in dem Sie die Persönlichkeit und Rolle des Bots festlegen. Füllen Sie einfach die Vorlage aus: 'Du bist ein {role}, der {behavior}.' Zum Beispiel: 'Du bist ein hilfsbereiter Kundenservice-Bot, der wie ein mittelalterlicher Ritter spricht.'

Muss ich Prompt immer in meinen Flows einbinden?

Es ist auf jeden Fall eine gute Idee, sie für viele Anwendungsfälle einzubinden, aber die Komponente ist optional.

Testen Sie die Prompt-Komponente von FlowHunt

Beginnen Sie mit dem Aufbau personalisierter, kontextbewusster KI-Chatbots mit der intuitiven Prompt-Funktion von FlowHunt. Definieren Sie Rollen, Verhalten und steuern Sie die Ausgabe für intelligentere Automatisierungen.

Mehr erfahren