AI-kundtjänstagent för LiveAgent

Detta arbetsflöde automatiserar kundsupporten för ditt företag genom att integrera LiveAgent-konversationer, extrahera relevanta konversationsdata, generera svar med hjälp av AI-modeller och hämta dokument från kunskapsbasen. AI-agenten hanterar inkommande supportförfrågningar, berikar sammanhanget med hjälp av kunskapskällor och levererar kortfattade, professionella svar i ett kundvänligt format.

Thumbnail for Video
Så fungerar AI Flow - AI-kundtjänstagent för LiveAgent

Flows

Så fungerar AI Flow

Ta emot kundförfrågan.
Samlar in inkommande kundmeddelanden som initial input för arbetsflödet.
Hämta LiveAgent-konversationsdata.
Genererar LiveAgent API-URL:er och hämtar konversationsuppgifter relaterade till kundens förfrågan.
Extrahera och bearbeta konversationsinnehåll.
Tolkar API-svar för att extrahera viktiga konversationsdata och använder sedan AI för att sammanfatta eller extrahera relevanta delar för vidare analys.
Berika med kunskapsbas och AI-agent.
Hämtar relevant sammanhang från kunskapsbasen och använder en AI-agent för att generera ett precist, hjälpsamt svar till kunden.
Leverera slutgiltigt svar.
Formaterar och levererar AI-genererat svar till kunden, så att svaret är tydligt, professionellt och innehåller nödvändig information.

Prompts som används i detta flow

Nedan är en komplett lista över alla prompts som används i detta flow för att uppnå dess funktionalitet. Prompts är instruktioner som ges till AI-modellen för att generera svar eller utföra åtgärder. De vägleder AI:n i att förstå användarens avsikt och generera relevanta resultat.

Tool Calling Agent

En verktygsanropande agent.

                You are an AI language model assistant acting as a friendly and professional customer support and shopping assistant for Your Company. You respond in Slovak language by default, or in the customer's input language if detected to be different than Slovak. AND ALWAYS USE EMAIL TONE AND FORMAT.

<u>Your role:</u>

You combine the responsibilities of technical customer support and product recommendation assistant. You help customers solve issues, make decisions, and complete purchases related to Your Company products and services. Your tone is always friendly and professional, and your goal is to ensure the customer feels understood, supported, and confident in their next step.

<u>Your Goal:</u>

you receive conversation history and the most recent user query you goal is to answer the most recent query based on the tools at your disposal.&#x20;

<u>Identify intent and provide answers:</u>

First source: ALWAYS SEARCH THE knowledge_source_tool TO ANSWER USER'S QUESTION AND NEVER ANSWER FROM YOURSELF.

Second source: Always use the Document Retriever tool to find context related to the question.

If relevant context is found:

Use it to provide accurate, concise answers.

Include ONLY RELEVANT URLs retrieved from the Document Retriever, never edit the url.

Never invent product names and category names. You can recognize a category by the fact that the page MUST contain a list of different products.; use only those available in your knowledge base.

Follow the information exactly as stated in the reference.

If no relevant context is found and the question is about Your Company:

Ask polite clarifying questions to gather more details.

If still unresolved, use the Contact Human Assist tool to transfer to a human support agent.

If the customer’s message is unclear or incomplete:

Do not guess — always ask for more information before answering.

If the customer shows interest in a specific product:

Let them know that pricing and ordering is quick and simple directly on the website.

They can configure the product (dimensions, extras, quantity…) and see the price immediately and the production time.

If the question is about production time, always include express options if available.

For inquiries not related to Your Company:

Politely inform the customer that you only provide support for Your Company.

Suggest contacting the appropriate business support team at [Your Company@Your Company.sk](mailto:YourCompany@YourCompany.sk).

<u>Resource Utilization:</u>

Use the Document Retriever to search for knowledge relevant to the customer question.

Use the Contact Human Assist tool to escalate if needed.

Use the Document Retriever to provide valid product or info links - NEVER invent or assume URLs

<u>Formatting:</u>

Your tone is always friendly, clear, and professional.

The answers should be SHORT - max. about 100-200 tokens.

Use structured formatting:

Short paragraphs

Bold text for emphasis

Bullet points where appropriate

Emojis to make the messages more engaging 😊

Write in plain text format. Do not use markdown.

            

Komponenter som används i detta flow

Nedan är en komplett lista över alla komponenter som används i detta flow för att uppnå dess funktionalitet. Komponenter är byggstenarna i varje AI Flow. De låter dig skapa komplexa interaktioner och automatisera uppgifter genom att koppla olika funktioner. Varje komponent tjänar ett specifikt syfte, som att hantera användarindata, bearbeta data eller integrera med externa tjänster.

Chatinmatning

Chatinmatningskomponenten i FlowHunt initierar användarinteraktioner genom att fånga upp meddelanden från Playground. Den fungerar som startpunkt för flöden och möjliggör att arbetsflödet kan bearbeta både text- och filbaserade indata.

Promptkomponent i FlowHunt

Lär dig hur FlowHunts Prompt-komponent låter dig definiera din AI-bots roll och beteende, vilket säkerställer relevanta och personliga svar. Anpassa prompts och mallar för effektiva, kontextmedvetna chatbotflöden.

Skapa Data

Komponenten Skapa Data gör det möjligt att dynamiskt generera strukturerade dataposter med ett anpassningsbart antal fält. Perfekt för arbetsflöden som kräver skapande av nya dataobjekt i realtid, och den stödjer flexibel fältkonfiguration samt sömlös integration med andra automationssteg.

API-begäran

Integrera extern data och tjänster i ditt arbetsflöde med komponenten API-begäran. Skicka enkelt HTTP-förfrågningar, ange anpassade headers, body och query-parametrar, samt hantera flera metoder som GET och POST. Avgörande för att koppla dina automationer till valfritt webb-API eller tjänst.

Parsa Data

Komponenten Parsa Data omvandlar strukturerad data till vanlig text med hjälp av anpassningsbara mallar. Den möjliggör flexibel formatering och konvertering av datainmatningar för vidare användning i ditt arbetsflöde, vilket hjälper till att standardisera eller förbereda information för nedströmskomponenter.

LLM OpenAI

FlowHunt stöder dussintals textgenereringsmodeller, inklusive modeller från OpenAI. Så här använder du ChatGPT i dina AI-verktyg och chatbottar.

Generator

Utforska Generator-komponenten i FlowHunt—kraftfull AI-driven textgenerering med din valda LLM-modell. Skapa enkelt dynamiska chatbot-svar genom att kombinera promptar, valfria systeminstruktioner och till och med bilder som indata, vilket gör den till ett kärnverktyg för att bygga intelligenta, konverserande arbetsflöden.

Verktygsanropande Agent

Utforska Verktygsanropande Agent i FlowHunt—en avancerad arbetsflödeskomponent som gör det möjligt för AI-agenter att intelligent välja och använda externa verktyg för att besvara komplexa frågor. Perfekt för att bygga smarta AI-lösningar som kräver dynamisk verktygsanvändning, iterativt resonemang och integration med flera resurser.

Dokumenthämtare

FlowHunts Dokumenthämtare förbättrar AI-noggrannheten genom att koppla generativa modeller till dina egna uppdaterade dokument och webbadresser, vilket säkerställer tillförlitliga och relevanta svar med Retrieval-Augmented Generation (RAG).

Chatthistorik-komponent

Chatthistorik-komponenten i FlowHunt gör det möjligt för chatbots att minnas tidigare meddelanden, vilket säkerställer sammanhängande konversationer och förbättrad kundupplevelse samtidigt som minnes- och tokenanvändning optimeras.

Chattutgång

Upptäck Chattutgång-komponenten i FlowHunt—slutför chatbottsvar med flexibla, flerdelade utdata. Oumbärlig för smidig avslutning av flöden och skapande av avancerade, interaktiva AI-chattbottar.

Flow-beskrivning

Syfte och fördelar

Arbetsflödesbeskrivning

Detta arbetsflöde är utformat för att automatisera och skala avancerad kundsupport samt uppgifter för kunskapsinhämtning, med hjälp av LLM:er (Large Language Models), dynamisk dataskapande, externa API-anrop (såsom LiveAgent) och automatiserad dokumentsökning. Det är särskilt användbart för organisationer som vill effektivisera supportprocesser, besvara kundförfrågningar med kontextmedvetna svar och integrera kunskapsbasuppslag med externa systeminteraktioner.

Översikt på hög nivå

Arbetsflödet organiserar dessa huvudsteg:

  • Tar emot användarinput (via chatt)
  • Bygger dynamiska API-anrop baserat på användarinput och sammanhang
  • Hämtar och tolkar data från externa källor (t.ex. LiveAgent)
  • Använder LLM:er för att extrahera och sammanfatta relevant information från svar
  • Berikar svaren med hjälp av dokumentsökning i kunskapsbasen
  • Utnyttjar en LLM-driven agent för att generera kundanpassade svar, alltid baserade på inhämtad kontext
  • Presenterar svaret tillbaka till användaren

Huvudkomponenter och flöde

StegKomponentSyfte
1ChattinmatningTar emot användarfrågor eller meddelanden
2PromptmallSkapar dynamiska URL:er för API-anrop genom att ersätta användarinput och kontext i fördefinierade mallar
3API-anropSkickar HTTP-anrop (GET/POST) till externa API:er (t.ex. LiveAgent), inklusive parametrar och body vid behov
4DatatolkningOmvandlar API-svar (JSON/data) till vanlig text eller strukturerade prompts för LLM-behandling
5LLM-generatorAnvänder en LLM (t.ex. OpenAI GPT-4.1) för att extrahera specifika sektioner (t.ex. “Preview”) från indata
6Verktygsanropande agentEn LLM-agent som får all kontext, historik och verktyg, och styrs av en anpassad system-prompt
7DokumentsökareSöker kunskapskällor efter relevanta dokument baserat på användarens fråga
8ChattutmatningVisar slutligt svar eller meddelanden till användaren

Detaljerade steg

1. Användarinmatning och kontextinsamling

  • Processen börjar med en Chattinmatning-nod där användarens meddelande tas emot.
  • Chatthistorik-noden hämtar de senaste N meddelandena, vilket möjliggör kontextmedvetna svar.
  • En Promptmall använder användarinput och historik för att dynamiskt skapa en URL för det externa API:et (till exempel för att hämta en konversationstranskription från LiveAgent).

2. Konstruktion av API-anrop

  • Dataskapande-noder möjliggör dynamisk konstruktion av frågeparametrar eller request-bodies (inklusive säker lagring av API-nycklar eller andra nödvändiga fält).
  • Den genererade URL:en och parametrarna skickas till en API-anrop-nod, som interagerar med externa system (såsom LiveAgent) för att hämta nödvändig data.

3. Datatolkning och förbearbetning

  • API-svar bearbetas med hjälp av Datatolkning-noder, som omvandlar rådata till strukturerad text eller extraherar endast relevanta fält.
  • Den tolkade datan skickas till LLM-generator-noden, som har till uppgift att extrahera specifik information (t.ex. “Preview”-sektionen) med hjälp av ett tydligt systemmeddelande.

4. Kunskapsberikning

  • Samtidigt gör Dokumentsökare-noden det möjligt för systemet att söka i interna kunskapsbaser efter dokument som är mycket relevanta för användarens fråga, vilket ytterligare berikar agenten med auktoritativ kontext. Detta verktyg är tillgängligt för LLM-agenten.

5. LLM-agentens svarsproduktion

  • Verktygsanropande agent-noden är en kraftfull LLM-baserad agent som:
    • Tar emot användarinput, API-svar, chatthistorik och tillgång till verktyg (Dokumentsökare, Kontakt till mänsklig assistans, etc.)
    • Styrs av en detaljerad systemprompt som anger:
      • Alltid använd auktoritativa källor (t.ex. Dokumentsökare, knowledge_source_tool)
      • Hitta aldrig på svar eller URL:er
      • Ställ förtydligande frågor vid behov
      • Formatera svaren vänligt, professionellt och koncist
      • Använd punktlistor, fetstil och emojis för engagerande svar
      • Svara alltid på slovakiska (eller upptäckt användarspråk), med e-postton
      • Skala upp till mänsklig support om frågan inte kan lösas
  • Detta säkerställer att varje kundsvar är korrekt, kontextbaserat, följer policy och är mycket skalbart.

6. Utmatning till användaren

  • Det slutliga genererade svaret (från LLM-agenten) tolkas och formateras, och levereras sedan till användaren via Chattutmatning-noder.

Noteringar och bästa praxis

  • API-nyckel och LiveAgent-länk: Arbetsflödet innehåller notisnoder som påminner användaren om att infoga sin API-nyckel och ersätta YOURLINK i promptmallarna med sin riktiga LiveAgent-instans-URL.
  • Säkerhet och efterlevnad: API-nycklar och känslig data hanteras med hjälp av dynamiska datanoder, vilket minimerar risken för oavsiktligt avslöjande.
  • Utbyggbarhet: Den modulära designen gör det enkelt att lägga till ytterligare verktyg, datatransformationer eller utmatningskanaler.

Varför är detta arbetsflöde användbart för skalning och automation?

  • Helautomatisering: Integrerar flera datakällor (livechatt, API:er, kunskapsbas) och automatiserar beslutsfattande och svarsprocessen.
  • LLM-drivet resonemang: Utnyttjar toppmoderna LLM:er för kontextuell förståelse, informationsutvinning och mänsklig kommunikation.
  • Konsekvent, högkvalitativ support: Agentens systemprompt upprätthåller företagspolicyer, ton, eskaleringsvägar och säkerställer att ingen hallucinerad data ges.
  • Snabb integration med externa system: Anpassa enkelt till olika API:er eller kunskapsbaser genom att uppdatera promptmallar och anslutningsnoder.
  • Människa-i-loopen-eskalering: Överlämnar smidigt komplexa ärenden till mänskliga agenter, vilket säkerställer täckning för undantagsfall.
  • Skalbarhet: Klarar stora mängder förfrågningar parallellt, med konsekvent noggrannhet och efterlevnad.

Sammanfattande tabell över nyckelnoder

NodtypHuvudroll
NotisPåminnelser och instruktioner för konfiguration
Chatt in-/utmatningSlutpunkter för användarinteraktion
ChatthistorikGer kontext från tidigare interaktioner
DataskapandeBygger dynamiskt API-anropsdata
PromptmallSkapar fråge-URL:er eller prompts
API-anropInteragerar med externa tjänster
DatatolkningOmvandlar rådata för LLM-användning
LLM-generatorExtraherar/bearbetar information med LLM
DokumentsökareSöker interna kunskapskällor
Verktygsanropande agentOrkestrerar verktyg och genererar svar

Detta arbetsflöde är idealiskt för att automatisera kundsupport, integrera med externa ärende- eller chattsystem och säkerställa att LLM-drivna svar alltid är förankrade i auktoritativ företagskunskap. Det kan utgöra ryggraden i en skalbar, intelligent supportassistent redo för företagsanvändning.

Låt oss bygga ditt eget AI-team

Vi hjälper företag som ditt att utveckla smarta chatbotar, MCP-servrar, AI-verktyg eller andra typer av AI-automatisering för att ersätta människor i repetitiva uppgifter i din organisation.

Lär dig mer

AI-kundtjänstagent med LiveAgent API-integration
AI-kundtjänstagent med LiveAgent API-integration

AI-kundtjänstagent med LiveAgent API-integration

Detta AI-drivna arbetsflöde automatiserar kundtjänst genom att koppla användarfrågor till företagets kunskapskällor, externa API:er (såsom LiveAgent) och en spr...

4 min läsning
AI-kundtjänstagents med kunskapsbas och API-förstärkning
AI-kundtjänstagents med kunskapsbas och API-förstärkning

AI-kundtjänstagents med kunskapsbas och API-förstärkning

Detta AI-drivna arbetsflöde automatiserar kundsupport genom att kombinera intern kunskapsbas-sökning, hämtning av kunskap från Google Docs, API-integration och ...

4 min läsning
AI-chattbot med LiveChat.com-integration
AI-chattbot med LiveChat.com-integration

AI-chattbot med LiveChat.com-integration

Distribuera en AI-driven chattbot på din webbplats som använder din interna kunskapsbas för att besvara kundförfrågningar, och smidigt vidarebefordrar komplexa ...

3 min läsning