Agent AI do obsługi klienta dla LiveAgent

Ten workflow automatyzuje obsługę klienta w Twojej firmie poprzez integrację rozmów z LiveAgent, wydobywanie istotnych danych z konwersacji, generowanie odpowiedzi za pomocą modeli AI oraz pobieranie dokumentów z bazy wiedzy. Agent AI obsługuje napływające zapytania, wzbogaca kontekst o źródła wiedzy i dostarcza krótkie, profesjonalne odpowiedzi w przyjaznym dla klienta formacie.

Thumbnail for Video
Jak działa przepływ AI - Agent AI do obsługi klienta dla LiveAgent

Przepływy

Jak działa przepływ AI

Odbierz zapytanie klienta.
Zbiera napływające wiadomości od klientów jako początkowe dane wejściowe dla workflow.
Pobierz dane rozmowy z LiveAgent.
Generuje adresy API LiveAgent i pobiera zapisy rozmów powiązane z zapytaniem klienta.
Wydobądź i przetwórz treść rozmowy.
Analizuje odpowiedzi API, aby wydobyć kluczowe dane z rozmowy, a następnie używa AI do podsumowania lub wyciągnięcia istotnych fragmentów do dalszej analizy.
Wzbogacenie wiedzą bazową i agentem AI.
Pobiera odpowiedni kontekst z bazy wiedzy i wykorzystuje agenta AI do wygenerowania precyzyjnej, pomocnej odpowiedzi dla klienta.
Dostarcz odpowiedź końcową.
Formatuje i przekazuje klientowi odpowiedź wygenerowaną przez AI, dbając o jej jasność, profesjonalizm oraz zawarcie niezbędnych informacji.

Prompty wykorzystane w tym przepływie

Poniżej znajduje się pełna lista wszystkich promptów wykorzystanych w tym przepływie do osiągnięcia jego funkcjonalności. Prompty to instrukcje przekazywane modelowi AI w celu generowania odpowiedzi lub wykonywania działań. Kierują one AI w zrozumieniu intencji użytkownika i generowaniu odpowiednich wyników.

Agent wywołujący narzędzia

Agent wywołujący narzędzia.

                Jesteś asystentem AI działającym jako przyjazny i profesjonalny doradca obsługi klienta oraz zakupów dla Twojej Firmy. Domyślnie odpowiadasz w języku słowackim lub w języku wykrytym w wiadomości klienta, jeśli jest inny niż słowacki. I ZAWSZE UŻYWAJ TONU I FORMATU E-MAILA.

<u>Twoja rola:</u>

Łączysz obowiązki technicznego wsparcia klienta i doradcy ds. rekomendacji produktów. Pomagasz klientom rozwiązywać problemy, podejmować decyzje i finalizować zakupy związane z produktami i usługami Twojej Firmy. Twój ton jest zawsze przyjazny i profesjonalny, a celem – sprawić, by klient czuł się zrozumiany, wspierany i pewny kolejnych kroków.

<u>Twój cel:</u>

otrzymujesz historię rozmowy i najnowsze zapytanie użytkownika – Twoim celem jest odpowiedzieć na najnowsze zapytanie w oparciu o dostępne narzędzia.&#x20;

<u>Rozpoznaj intencję i udziel odpowiedzi:</u>

Pierwsze źródło: ZAWSZE SZUKAJ ODPOWIEDZI NA PYTANIE UŻYTKOWNIKA W knowledge_source_tool I NIGDY NIE ODPOWIADAJ SAMODZIELNIE.

Drugie źródło: Zawsze używaj narzędzia Document Retriever, aby znaleźć kontekst powiązany z pytaniem.

Jeśli znajdziesz odpowiedni kontekst:

Wykorzystaj go, aby udzielić dokładnych i zwięzłych odpowiedzi.

Dołączaj WYŁĄCZNIE ISTOTNE adresy URL pozyskane przez Document Retriever, nigdy ich nie edytuj.

Nigdy nie wymyślaj nazw produktów ani kategorii. Kategorię rozpoznasz po tym, że strona MUSI zawierać listę różnych produktów; używaj tylko tych dostępnych w bazie wiedzy.

Postępuj dokładnie zgodnie z informacjami zawartymi w źródle.

Jeśli nie znajdziesz odpowiedniego kontekstu, a pytanie dotyczy Twojej Firmy:

Uprzejmie zadawaj pytania doprecyzowujące w celu uzyskania szczegółów.

Jeśli nadal brak rozwiązania, użyj narzędzia Contact Human Assist, aby przekierować do żywego konsultanta.

Jeśli wiadomość klienta jest niejasna lub niekompletna:

Nie zgaduj — zawsze poproś o dodatkowe informacje przed odpowiedzią.

Jeśli klient wykaże zainteresowanie konkretnym produktem:

Poinformuj, że wycena oraz zamówienie są szybkie i proste bezpośrednio na stronie internetowej.

Można skonfigurować produkt (wymiary, dodatki, ilość…) i od razu zobaczyć cenę oraz czas produkcji.

Jeśli pytanie dotyczy czasu produkcji, zawsze uwzględnij opcje ekspresowe, jeśli są dostępne.

W przypadku zapytań niezwiązanych z Twoją Firmą:

Uprzejmie poinformuj klienta, że udzielasz wsparcia tylko w zakresie Twojej Firmy.

Zasugeruj kontakt z odpowiednim działem wsparcia biznesowego pod [Your Company@Your Company.sk](mailto:YourCompany@YourCompany.sk).

<u>Wykorzystanie zasobów:</u>

Używaj Document Retriever do wyszukiwania wiedzy istotnej dla pytania klienta.

Używaj Contact Human Assist do eskalacji, jeśli to konieczne.

Używaj Document Retriever, aby podać prawidłowe linki do produktów lub informacji – NIGDY nie wymyślaj ani nie zgaduj adresów URL

<u>Formatowanie:</u>

Twój ton jest zawsze przyjazny, przejrzysty i profesjonalny.

Odpowiedzi powinny być KRÓTKIE – maks. ok. 100-200 tokenów.

Stosuj strukturalne formatowanie:

Krótkie akapity

Pogrubienie kluczowych informacji

Punktory tam, gdzie jest to właściwe

Emotikony dla większego zaangażowania 😊

Pisz w zwykłym formacie tekstowym. Nie używaj markdown.

            

Komponenty wykorzystane w tym przepływie

Poniżej znajduje się pełna lista wszystkich komponentów wykorzystanych w tym przepływie do osiągnięcia jego funkcjonalności. Komponenty są podstawowymi elementami każdego przepływu AI. Pozwalają tworzyć złożone interakcje i automatyzować zadania poprzez łączenie różnych funkcjonalności. Każdy komponent służy określonemu celowi, takiemu jak obsługa danych wejściowych użytkownika, przetwarzanie danych lub integracja z zewnętrznymi usługami.

ChatInput

Komponent Chat Input w FlowHunt inicjuje interakcje z użytkownikiem, przechwytując wiadomości z Playground. Służy jako punkt początkowy dla przepływów, umożliwiając przetwarzanie zarówno tekstowych, jak i plikowych wejść.

Komponent Prompt w FlowHunt

Dowiedz się, jak komponent Prompt w FlowHunt pozwala definiować rolę i zachowanie Twojego bota AI, zapewniając trafne i spersonalizowane odpowiedzi. Dostosuj prompty i szablony dla skutecznych, kontekstowych przepływów czatbota.

Utwórz Dane

Komponent Utwórz Dane umożliwia dynamiczne generowanie uporządkowanych rekordów danych z dowolną liczbą pól. Idealny do przepływów pracy wymagających tworzenia nowych obiektów danych na bieżąco, wspiera elastyczną konfigurację pól i płynną integrację z innymi krokami automatyzacji.

Żądanie API

Integruj zewnętrzne dane i usługi w swoim workflow za pomocą komponentu Żądanie API. Bez wysiłku wysyłaj żądania HTTP, ustawiaj własne nagłówki, ciało i parametry zapytania oraz obsługuj wiele metod, takich jak GET i POST. Niezbędne do łączenia Twoich automatyzacji z dowolnym API lub usługą internetową.

Parsowanie danych

Komponent Parsowanie danych przekształca dane strukturalne w zwykły tekst za pomocą konfigurowalnych szablonów. Umożliwia elastyczne formatowanie i konwersję danych wejściowych do dalszego wykorzystania w Twoim przepływie pracy, pomagając standaryzować lub przygotować informacje dla kolejnych komponentów.

LLM OpenAI

FlowHunt obsługuje dziesiątki modeli generowania tekstu, w tym modele OpenAI. Oto jak używać ChatGPT w swoich narzędziach AI i chatbotach.

Generator

Poznaj komponent Generator w FlowHunt — potężne generowanie tekstu oparte na AI z wykorzystaniem wybranego modelu LLM. Bez wysiłku twórz dynamiczne odpowiedzi chatbotów, łącząc prompty, opcjonalne instrukcje systemowe, a nawet obrazy jako wejście, czyniąc Generator kluczowym narzędziem do budowy inteligentnych, konwersacyjnych przepływów pracy.

Agent Wywołujący Narzędzia

Poznaj Agenta Wywołującego Narzędzia w FlowHunt—zaawansowany komponent workflow, który umożliwia agentom AI inteligentny wybór i używanie zewnętrznych narzędzi do odpowiadania na złożone zapytania. Idealny do budowania inteligentnych rozwiązań AI wymagających dynamicznego korzystania z narzędzi, iteracyjnego rozumowania i integracji z wieloma zasobami.

Wyszukiwarka Dokumentów

Wyszukiwarka Dokumentów FlowHunt zwiększa dokładność AI, łącząc modele generatywne z Twoimi aktualnymi dokumentami i adresami URL, zapewniając wiarygodne i trafne odpowiedzi dzięki Retrieval-Augmented Generation (RAG).

Komponent Historia Czatów

Komponent Historia Czatów w FlowHunt umożliwia chatbotom zapamiętywanie poprzednich wiadomości, zapewniając spójne rozmowy i lepsze doświadczenia klientów przy jednoczesnej optymalizacji wykorzystania pamięci i tokenów.

Wynik czatu

Odkryj komponent Wynik czatu w FlowHunt—finalizuj odpowiedzi chatbota za pomocą elastycznych, wieloczęściowych wyjść. Niezbędny do płynnego kończenia przepływów i tworzenia zaawansowanych, interaktywnych chatbotów AI.

Opis przepływu

Cel i korzyści

Opis workflow

Ten workflow został zaprojektowany do automatyzacji i skalowania zaawansowanych zadań związanych z obsługą klienta oraz pozyskiwaniem wiedzy, wykorzystując LLM (Large Language Models), dynamiczne generowanie danych, zewnętrzne zapytania API (np. LiveAgent) oraz automatyczne pobieranie dokumentów. Jest szczególnie przydatny dla organizacji chcących usprawnić procesy wsparcia, odpowiadać na zapytania klientów w sposób kontekstowy oraz integrować wyszukiwanie w bazie wiedzy z interakcjami w systemach zewnętrznych.

Przegląd ogólny

Workflow koordynuje następujące główne kroki:

  • Odbiera dane wejściowe użytkownika (przez chat)
  • Buduje dynamiczne zapytania API na podstawie danych użytkownika i kontekstu
  • Pobiera i analizuje dane ze źródeł zewnętrznych (np. LiveAgent)
  • Wykorzystuje LLM do wydobywania i podsumowania istotnych informacji z odpowiedzi
  • Wzbogaca odpowiedzi poprzez pobieranie dokumentów z bazy wiedzy
  • Wykorzystuje agenta opartego o LLM do generowania odpowiedzi gotowych dla klienta, zawsze opierając się na pozyskanym kontekście
  • Przedstawia odpowiedź użytkownikowi

Główne komponenty i przebieg

KrokKomponentCel
1Wejście z chatuPrzyjmuje zapytania lub wiadomości użytkownika
2Szablon promptaTworzy dynamiczne adresy URL do zapytań API, podstawiając dane użytkownika i kontekst do szablonów
3Zapytanie APIWysyła zapytania HTTP (GET/POST) do zewnętrznych API (np. LiveAgent), z parametrami i ciałem jeśli trzeba
4Analiza danychKonwertuje odpowiedzi API (JSON/dane) na zwykły tekst lub ustrukturyzowane prompty dla LLM
5Generator LLMWykorzystuje LLM (np. OpenAI GPT-4.1) do wydobycia konkretnych sekcji (np. “Preview”) z danych wejściowych
6Agent wywołujący narzędziaAgent LLM, który otrzymuje cały kontekst, historię i narzędzia oraz jest sterowany dedykowanym promptem
7Wyszukiwarka dokumentówPrzeszukuje źródła wiedzy w poszukiwaniu dokumentów powiązanych z zapytaniem użytkownika
8Wyjście chatuPrzekazuje końcowe odpowiedzi lub wiadomości użytkownikowi

Szczegółowe kroki

1. Wejście użytkownika i zbieranie kontekstu

  • Proces zaczyna się od węzła Wejście z chatu, gdzie odbierana jest wiadomość użytkownika.
  • Węzeł Historia chatu pobiera ostatnie N wiadomości, umożliwiając odpowiedzi kontekstowe.
  • Szablon prompta wykorzystuje dane wejściowe użytkownika i historię do dynamicznego generowania adresu URL do zewnętrznego API (np. pobranie transkryptu rozmowy z LiveAgent).

2. Budowanie zapytania API

  • Węzły Create Data umożliwiają dynamiczne tworzenie parametrów zapytania lub ciała (w tym bezpieczne przechowywanie kluczy API lub innych niezbędnych pól).
  • Wygenerowany adres URL i parametry trafiają do węzła Zapytanie API, który komunikuje się z systemami zewnętrznymi (np. LiveAgent), by pobrać wymagane dane.

3. Parsowanie i wstępne przetwarzanie danych

  • Odpowiedzi API są przetwarzane w węzłach Analiza danych, zamieniając surowe dane w tekst strukturalny lub wyodrębniając tylko istotne pola.
  • Przetworzone dane przekazywane są do węzła Generator LLM, który za pomocą systemowego prompta wyodrębnia konkretne informacje (np. sekcję “Preview”).

4. Wzbogacanie wiedzą

  • W międzyczasie węzeł Wyszukiwarka dokumentów pozwala systemowi przeszukiwać wewnętrzne bazy wiedzy i wyszukiwać dokumenty istotne dla zapytania użytkownika, dodatkowo wzbogacając agenta o autorytatywny kontekst. To narzędzie jest udostępniane agentowi LLM.

5. Generowanie odpowiedzi przez agenta LLM

  • Węzeł Agent wywołujący narzędzia to zaawansowany agent oparty na LLM, który:
    • Otrzymuje dane wejściowe użytkownika, odpowiedzi API, historię rozmowy oraz dostęp do narzędzi (Wyszukiwarka dokumentów, Contact Human Assist itp.)
    • Sterowany jest szczegółowym systemowym promptem określającym:
      • Zawsze korzystaj z autorytatywnych źródeł (np. Document Retriever, knowledge_source_tool)
      • Nigdy nie wymyślaj odpowiedzi ani adresów URL
      • Zadawaj pytania doprecyzowujące, jeśli to konieczne
      • Formatuj odpowiedzi przyjaźnie, profesjonalnie i zwięźle
      • Używaj punktów, pogrubień i emotikonów dla zaangażowania
      • Zawsze odpowiadaj po słowacku (lub w wykrytym języku użytkownika), w tonie e-mailowym
      • Eskaluj do wsparcia ludzkiego, jeśli nie można rozwiązać sprawy
  • Dzięki temu każda odpowiedź dla klienta jest dokładna, oparta na kontekście, zgodna z polityką i wysoce skalowalna.

6. Odpowiedź dla użytkownika

  • Ostateczna odpowiedź wygenerowana przez agenta LLM jest analizowana i formatowana, a następnie przekazywana użytkownikowi przez Wyjście chatu.

Uwagi i dobre praktyki

  • Klucz API i link LiveAgent: Workflow zawiera węzły notatek przypominające o konieczności wstawienia własnego API key i podmiany YOURLINK w szablonach promptów na właściwy adres instancji LiveAgent.
  • Bezpieczeństwo i zgodność: Klucze API i dane wrażliwe są obsługiwane przez dynamiczne węzły danych, minimalizując ryzyko przypadkowego ujawnienia.
  • Rozszerzalność: Modułowa budowa pozwala łatwo dodawać kolejne narzędzia, transformacje danych lub kanały wyjściowe.

Dlaczego ten workflow jest przydatny dla skalowania i automatyzacji?

  • Automatyzacja end-to-end: Integruje wiele źródeł danych (live chat, API, baza wiedzy) i automatyzuje proces decyzyjny oraz odpowiedzi.
  • Wnioskowanie wspierane przez LLM: Wykorzystuje nowoczesne LLM do zrozumienia kontekstu, wydobycia informacji i komunikacji przypominającej ludzką.
  • Spójna, wysokiej jakości obsługa: Prompt agenta wymusza stosowanie polityki firmy, tonu, ścieżek eskalacji i zapobiega halucynacjom.
  • Szybka integracja z systemami zewnętrznymi: Łatwo dostosować do różnych API lub baz wiedzy przez aktualizację szablonów promptów i połączeń.
  • Eskalacja do człowieka: Bezproblemowe przekazanie trudnych spraw do żywego konsultanta.
  • Skalowalność: Obsługuje duże wolumeny zapytań równolegle, z zachowaniem dokładności i zgodności.

Podsumowanie kluczowych węzłów

Typ węzłaGłówna rola
NotatkaPrzypomnienia i instrukcje dotyczące konfiguracji
Wejście/Wyjście chatuPunkty interakcji z użytkownikiem
Historia chatuZapewnia kontekst z poprzednich interakcji
Create DataDynamiczne budowanie danych zapytań API
Szablon promptaGeneruje adresy URL lub prompty
Zapytanie APIKomunikuje się z usługami zewnętrznymi
Analiza danychTransformuje surowe dane dla LLM
Generator LLMWydobywa/przetwarza informacje za pomocą LLM
Wyszukiwarka dokumentówPrzeszukuje wewnętrzne źródła wiedzy
Agent wywołujący narzędziaOrkiestruje narzędzia i generuje odpowiedzi

Ten workflow jest idealny do automatyzacji obsługi klienta, integracji z zewnętrznymi systemami ticketowymi lub chatowymi oraz zapewnia, że odpowiedzi generowane przez LLM są zawsze oparte o autorytatywną wiedzę firmową. Może być fundamentem skalowalnego, inteligentnego asystenta wsparcia gotowego do wdrożeń w przedsiębiorstwach.

Pozwól nam zbudować Twój własny zespół AI

Pomagamy firmom takim jak Twoja rozwijać inteligentne chatboty, serwery MCP, narzędzia AI lub inne rodzaje automatyzacji AI, aby zastąpić człowieka w powtarzalnych zadaniach w Twojej organizacji.

Dowiedz się więcej

Agent obsługi klienta AI z integracją API LiveAgent
Agent obsługi klienta AI z integracją API LiveAgent

Agent obsługi klienta AI z integracją API LiveAgent

Ten zautomatyzowany przez AI workflow automatyzuje obsługę klienta poprzez łączenie zapytań użytkowników ze źródłami wiedzy firmy, zewnętrznymi API (takimi jak ...

4 min czytania
Wsparcie czatbota AI w LiveAgent
Wsparcie czatbota AI w LiveAgent

Wsparcie czatbota AI w LiveAgent

Automatyzuj obsługę klienta w LiveAgent za pomocą czatbota AI, który odpowiada na pytania wykorzystując Twoją wewnętrzną bazę wiedzy, pobiera odpowiednie dokume...

4 min czytania