Komponent Prompt w FlowHunt
Komponent Prompt w FlowHunt określa role i zachowanie bota dla spersonalizowanych odpowiedzi AI. Kontroluj wynik za pomocą własnych szablonów, aby budować skuteczne, kontekstowe czatboty.

Opis komponentu
Jak działa komponent Komponent Prompt w FlowHunt
Bez dobrego promptu wszystkie boty działałyby tak samo i często nie trafiałyby z odpowiedziami. Prompty dostarczają instrukcji i kontekstu modelowi językowemu, pomagając mu zrozumieć, jaki rodzaj tekstu powinien wygenerować.
Przegląd komponentu Prompt
Komponent Prompt został zaprojektowany do generowania elastycznych szablonów promptów na potrzeby przepływów AI, umożliwiając dynamiczne wstawianie zmiennych i kontekstu. Ten komponent jest szczególnie przydatny w scenariuszach konwersacyjnej AI, takich jak czatboty czy wirtualni asystenci, gdzie tworzenie adaptacyjnych i kontekstowych promptów jest kluczowe.
Jakie jest zadanie komponentu?
Komponent Prompt tworzy szablon promptu, który może zawierać różne dynamiczne zmienne, takie jak dane od użytkownika, historia czatu, instrukcje systemowe i wiadomości kontekstowe. Dzięki tym zmiennym komponent pomaga budować bogate i kontekstowe prompty, zwiększające skuteczność i trafność modeli AI lub agentów działających dalej w przepływie.
Kluczowe funkcje
- Dynamiczne szablony: Twórz prompty, które automatycznie uwzględniają dostępne informacje, takie jak historia czatu, dane wejściowe od użytkownika i kontekst.
- Własne zmienne: Obsługuje wstawianie zmiennych takich jak
{input}
,{human_input}
,{context}
,{chat_history}
,{system_message}
, oraz{all_input_variables}
bezpośrednio do szablonu promptu. - Obsługa wiadomości systemowej: Pozwala na dodanie instrukcji systemowych wpływających na zachowanie AI.
- Wielokrotnego użytku w przepływach: Wynik tego komponentu może być użyty jako wejście dla innych komponentów, takich jak LLM (duże modele językowe) lub kolejne kroki przetwarzania.
Wejścia
Do komponentu Prompt można przekazać następujące wejścia:
Nazwa wejścia | Typ | Wymagane | Opis |
---|---|---|---|
Historia czatu | InMemoryChatMessageHistory | Nie | Poprzednie wiadomości w rozmowie. Pomocne przy utrzymywaniu kontekstu lub generowaniu alternatywnych zapytań. |
Kontekst | Message | Nie | Dodatkowe informacje kontekstowe do uwzględnienia w promptcie. |
Wejście | Message | Nie | Główne dane wejściowe lub wiadomość od użytkownika. |
Wiadomość systemowa | String (wielowierszowy) | Nie | Instrukcje systemowe ukierunkowujące zachowanie AI. |
Szablon | Prompt (wielowierszowy) | Nie | Faktyczny szablon promptu z obsługą dynamicznych zmiennych do personalizacji. |
Wyjścia
- Wiadomość:
Komponent zwraca pojedynczy obiekt wiadomości, który zawiera skonstruowany prompt ze wszystkimi dynamicznymi zmiennymi zastąpionymi odpowiadającymi im wartościami.
Nazwa wyjścia | Typ | Opis |
---|---|---|
Wiadomość | Message | Wygenerowany prompt, gotowy do użycia w kolejnych komponentach AI. |
Przykładowe zastosowania
- Konwersacyjna AI: Automatyczne generowanie promptów dla czatbotów na podstawie wejścia użytkownika, historii rozmowy i dodatkowego kontekstu.
- Retrieval-Augmented Generation: Personalizowanie promptów do zadań wyszukiwawczych poprzez uwzględnianie istotnych wcześniejszych interakcji i instrukcji systemowych.
- Instruction Tuning: Łatwa adaptacja promptów do różnych zadań lub person użytkowników poprzez modyfikację szablonu i wiadomości systemowych.
Dlaczego warto używać tego komponentu?
- Ułatwia inżynierię promptów: Łatwe zarządzanie i aktualizacja szablonów promptów bez konieczności kodowania na sztywno.
- Zwiększa trafność AI: Dzięki wstrzykiwaniu kontekstu, wiadomości systemowych i historii, prompty stają się bardziej informacyjne i precyzyjne.
- Zapewnia elastyczność: Obsługuje szeroki zakres zastosowań — od prostych pytań i odpowiedzi po złożone, wieloturystyczne rozmowy.
Tabela podsumowująca
Funkcja | Korzyść |
---|---|
Dynamiczne wstawianie zmiennych | Kontekstowe, adaptacyjne prompty |
Obsługa historii czatu | Utrzymuje ciągłość w rozmowach wieloturystycznych |
Integracja wiadomości systemowych | Precyzyjne dostrojenie osobowości lub instrukcji AI |
Łatwa integracja w przepływach | Usprawnia tworzenie promptów dla kolejnych komponentów AI |
Ten komponent to narzędzie bazowe dla każdego, kto buduje zaawansowane, kontekstowe przepływy AI, w których konstrukcja promptu jest kluczowa do osiągnięcia wysokiej jakości rezultatów.
Szablon
To zaawansowane, opcjonalne ustawienie. Możesz tworzyć szablony promptów ze zdefiniowanymi zmiennymi, aby w pełni kontrolować odpowiedzi czatu. Na przykład:
Jako doświadczony specjalista SEO przeanalizuj zawartość URL i wymyśl tytuł do 65 znaków.— Zawartość URL —{input}Zadanie: Wygeneruj tytuł podobny do innych, używając zapytania {human_input}. Nie zmieniaj {human_input} w nowym tytule. NOWY TYTUŁ:
Domyślny szablon promptu wygląda tak:
Jesteś asystentem AI opartym na modelu językowym.
Twoim zadaniem jest wygenerować odpowiedź na podstawie zapytania wejściowego.
Jeśli dostępny jest kontekst, użyj go, by wygenerować odpowiedź na zapytanie INPUT oraz HUMAN_INPUT.
Sformatuj odpowiedź z użyciem markdown.
ODPOWIEDŹ W JĘZYKU: {lang}
ZMIENNE:
{"session_start_time": "2025-06-03 07:35:22", "current_page_url": "https://app.flowhunt.io/aistudio/flows/de6c2e2c-d817-4b2f-af2c-12dba3f46870?ws=74be5f74-d7c5-4076-839d-8ac1771a3b75"}
WEJŚCIE: {input}
ODPOWIEDŹ:
Domyślny prompt powiela tę samą strukturę, co ustawienia komponentu. Możesz nadpisać ustawienia, zmieniając i używając zmiennych w polu szablonu. Tworzenie własnych szablonów daje większą kontrolę nad wynikiem.
Jak podłączyć komponent Prompt do swojego przepływu
Prompt to opcjonalny komponent, który dodatkowo modyfikuje i precyzuje końcowy wynik. Wymaga podłączenia kilku komponentów:
- Historia czatu: Podłączenie historii czatu nie jest wymagane, ale często bywa korzystne. Zapamiętywanie poprzednich wiadomości sprawia, że przyszłe odpowiedzi są bardziej trafne.
- Kontekst: Każdy sensowny tekst może pełnić rolę kontekstu. Najczęściej podłącza się wiedzę z retrieverów.
- Wejście: Tutaj można podłączyć wyłącznie komponent Chat Input.
Wyjście tego komponentu to tekst, który można podłączyć do różnych komponentów. Najczęściej od razu łączy się go z komponentem Generator, aby przekazać prompt do LLM.
Przykład
Stwórzmy bardzo prostego bota. Rozwiniemy przykład bota-rycerza ze średniowiecza z wcześniejszej części. Mimo swojego zabawnego stylu mówienia, jego główną misją jest być pomocnym czatbotem obsługi klienta, a my chcemy, by przekazywał istotne informacje.
Zadajmy naszemu botowi typowe pytanie o obsługę klienta. Zapytamy o ceny URLsLab. Aby uzyskać prawidłową odpowiedź, musimy:
- Dodać kontekst: Na potrzeby przykładu użyjemy komponentu URL retriever, by przekazać stronę ze wszystkimi niezbędnymi informacjami.
- Podłączyć wejście: Wejście to zawsze wiadomość od człowieka z komponentu Chat Input.
- Historia czatu: Opcjonalna, ale w tym przypadku ją podłączymy.
- Szablon: Użyjemy promptu: „Jesteś pomocnym czatbotem obsługi klienta, który mówi jak średniowieczny rycerz.”. Prompty mogą być o wiele bardziej rozbudowane. Zajrzyj do naszej biblioteki promptów po inspiracje.
- Dodaj Generator: Chcemy, by bot miał zdolności konwersacyjne. W tym celu podłącz Generator. Prompt służy tu jako wejście dla generatora.
Wynikowy przepływ będzie wyglądał mniej więcej tak:

Czas sprawdzić wiedzę naszego bota-rycerza. Przekazana mu strona dotyczy cen URLsLab. Zapytajmy go więc o to:

Nasz bot używa teraz pompatycznego, starodawnego języka do odpowiadania na proste pytania. Co ważniejsze, zwróć uwagę, jak trzyma się swojej roli pomocnego czatbota obsługi klienta. Ostatecznie, z powodzeniem korzysta z informacji zawartych pod wskazanym adresem URL.
Przykłady szablonów przepływu wykorzystujących komponent Komponent Prompt w FlowHunt
Aby pomóc Ci szybko zacząć, przygotowaliśmy kilka przykładowych szablonów przepływu, które pokazują, jak efektywnie używać komponentu Komponent Prompt w FlowHunt. Te szablony prezentują różne przypadki użycia i najlepsze praktyki, ułatwiając zrozumienie i implementację komponentu w Twoich własnych projektach.
Pokazywanie 1 do 60 z 69 wyników
Najczęściej zadawane pytania
- Czym jest komponent Prompt?
Komponent Prompt przekazuje botowi instrukcje i kontekst, zapewniając odpowiedzi w pożądany sposób.
- Czy zawsze muszę używać Prompt w moich przepływach?
W wielu przypadkach to świetny pomysł, ale komponent jest opcjonalny.
- Czym jest wiadomość systemowa?
To edytowalne pole tekstowe, w którym ustawiasz osobowość i rolę bota. Wystarczy uzupełnić szablon: 'Jesteś {role}, który {behavior}.' Na przykład: 'Jesteś pomocnym czatbotem obsługi klienta, który mówi jak średniowieczny rycerz.'
- Czy muszę zawsze używać Prompt w moich przepływach?
Zdecydowanie warto rozważyć jego użycie w wielu przypadkach, ale komponent jest opcjonalny.
Wypróbuj komponent Prompt w FlowHunt
Rozpocznij budowanie spersonalizowanych, kontekstowych czatbotów AI dzięki intuicyjnej funkcji Prompt w FlowHunt. Definiuj role, zachowania i kontroluj wyniki dla sprytniejszej automatyzacji.