AI-kundtjänstagent med LiveAgent API-integration

Detta AI-drivna arbetsflöde automatiserar kundtjänst genom att koppla användarfrågor till företagets kunskapskällor, externa API:er (såsom LiveAgent) och en språkmodell för professionella, vänliga och mycket relevanta svar. Flödet hämtar samtalshistorik, använder dokumentsökning och interagerar med externa system för att ge koncisa, strukturerade svar samt eskalerar till mänsklig support vid behov. Perfekt för företag som vill optimera support, produktrekommendationer och informationsleverans.

Så fungerar AI Flow - AI-kundtjänstagent med LiveAgent API-integration

Flows

Så fungerar AI Flow

Ta emot och strukturera kundförfrågan.
Fångar upp användarens fråga eller problem, förbereder dynamiska API-förfrågningar och kontext med hjälp av promptmallar samt strukturerar initiala datainmatningar.
Fråga externa system och hämta data.
Skickar förfrågningar till externa kundtjänst-API:er (t.ex. LiveAgent) och samlar in konto- eller samtalsdata som behövs för att lösa kundens ärende.
Extrahera och generera relevant kontext.
Bearbetar den hämtade datan, extraherar nyckelinformation och använder en LLM för att generera eller förfina kundens frågekontext för korrekt support.
AI-agent besvarar med kunskapsbas och verktyg.
En AI-agent använder företagets kunskapskällor, dokumentåtervinningsverktyg, samtalshistorik och språkmodellen för att formulera koncisa, professionella svar eller rekommendationer.
Svara kunden eller eskalera.
Levererar det AI-genererade svaret till kunden i ett strukturerat format och eskalerar till en mänsklig agent om ärendet inte kan lösas automatiskt.

Prompts som används i detta flow

Nedan är en komplett lista över alla prompts som används i detta flow för att uppnå dess funktionalitet. Prompts är instruktioner som ges till AI-modellen för att generera svar eller utföra åtgärder. De vägleder AI:n i att förstå användarens avsikt och generera relevanta resultat.

Tool Calling Agent

Systemmeddelande-prompt för agenten att agera som kundtjänst- och shoppingassistent för *YOURCOMPANY* på slovakiska, med detaljerade instruktioner om beteende o...

                You are an AI language model assistant acting as a friendly and professional customer support and shopping assistant for<u> *YOURCOMPANY*</u>

You respond in Slovak language by default, or in the customer's input language if detected to be different than Slovak. AND ALWAYS USE EMAIL TONE AND FORMAT.

<u>Your role:</u>

You combine the responsibilities of technical customer support and product recommendation assistant. You help customers solve issues, make decisions, and complete purchases related to <u>*YOURCOMPANY*</u> products and services. Your tone is always friendly and professional, and your goal is to ensure the customer feels understood, supported, and confident in their next step.

<u>Your Goal:</u>

you receive conversation history and the most recent user query you goal is to answer the most recent query based on the tools at your disposal.&#x20;

<u>Identify intent and provide answers:</u>

First source: ALWAYS SEARCH THE knowledge_source_tool TO ANSWER USER'S QUESTION AND NEVER ANSWER FROM YOURSELF.

Second source: Always use the Document Retriever tool to find context related to the question.

If relevant context is found:

Use it to provide accurate, concise answers.

Include ONLY RELEVANT URLs retrieved from the Document Retriever, never edit the url.

Never invent product names and category names. You can recognize a category by the fact that the page MUST contain a list of different products.; use only those available in your knowledge base.

Follow the information exactly as stated in the reference.

If no relevant context is found and the question is about <u>*YOURCOMPANY*</u>:

Ask polite clarifying questions to gather more details.

If still unresolved, use the Contact Human Assist tool to transfer to a human support agent.

If the customer’s message is unclear or incomplete:

Do not guess — always ask for more information before answering.

If the customer shows interest in a specific product:

Let them know that pricing and ordering is quick and simple directly on the website.

They can configure the product (dimensions, extras, quantity…) and see the price immediately and the production time.

If the question is about production time, always include express options if available.

For inquiries not related to <u>*YOURCOMPANY*</u>:

Politely inform the customer that you only provide support for <u>*YOURCOMPANY*</u>.

Suggest contacting the appropriate business support team at [<u>*YOURCOMPANY*</u>@EMAIL.EMAIL](mailto:YOURCOMPANY@EMAIL.EMAIL)

<u>Resource Utilization:</u>

Use the Document Retriever to search for knowledge relevant to the customer question.

Use the Contact Human Assist tool to escalate if needed.

Use the Document Retriever to provide valid product or info links - NEVER invent or assume URLs

<u>Formatting:</u>

Your tone is always friendly, clear, and professional.

The answers should be SHORT - max. about 100-200 tokens.

Use structured formatting:

Short paragraphs

Bold text for emphasis

Bullet points where appropriate

Emojis to make the messages more engaging 😊

Write in plain text format. Do not use markdown.

            

Komponenter som används i detta flow

Nedan är en komplett lista över alla komponenter som används i detta flow för att uppnå dess funktionalitet. Komponenter är byggstenarna i varje AI Flow. De låter dig skapa komplexa interaktioner och automatisera uppgifter genom att koppla olika funktioner. Varje komponent tjänar ett specifikt syfte, som att hantera användarindata, bearbeta data eller integrera med externa tjänster.

Chatinmatning

Chatinmatningskomponenten i FlowHunt initierar användarinteraktioner genom att fånga upp meddelanden från Playground. Den fungerar som startpunkt för flöden och möjliggör att arbetsflödet kan bearbeta både text- och filbaserade indata.

Promptkomponent i FlowHunt

Lär dig hur FlowHunts Prompt-komponent låter dig definiera din AI-bots roll och beteende, vilket säkerställer relevanta och personliga svar. Anpassa prompts och mallar för effektiva, kontextmedvetna chatbotflöden.

API-begäran

Integrera extern data och tjänster i ditt arbetsflöde med komponenten API-begäran. Skicka enkelt HTTP-förfrågningar, ange anpassade headers, body och query-parametrar, samt hantera flera metoder som GET och POST. Avgörande för att koppla dina automationer till valfritt webb-API eller tjänst.

Skapa Data

Komponenten Skapa Data gör det möjligt att dynamiskt generera strukturerade dataposter med ett anpassningsbart antal fält. Perfekt för arbetsflöden som kräver skapande av nya dataobjekt i realtid, och den stödjer flexibel fältkonfiguration samt sömlös integration med andra automationssteg.

Parsa Data

Komponenten Parsa Data omvandlar strukturerad data till vanlig text med hjälp av anpassningsbara mallar. Den möjliggör flexibel formatering och konvertering av datainmatningar för vidare användning i ditt arbetsflöde, vilket hjälper till att standardisera eller förbereda information för nedströmskomponenter.

Generator

Utforska Generator-komponenten i FlowHunt—kraftfull AI-driven textgenerering med din valda LLM-modell. Skapa enkelt dynamiska chatbot-svar genom att kombinera promptar, valfria systeminstruktioner och till och med bilder som indata, vilket gör den till ett kärnverktyg för att bygga intelligenta, konverserande arbetsflöden.

LLM OpenAI

FlowHunt stöder dussintals textgenereringsmodeller, inklusive modeller från OpenAI. Så här använder du ChatGPT i dina AI-verktyg och chatbottar.

Verktygsanropande Agent

Utforska Verktygsanropande Agent i FlowHunt—en avancerad arbetsflödeskomponent som gör det möjligt för AI-agenter att intelligent välja och använda externa verktyg för att besvara komplexa frågor. Perfekt för att bygga smarta AI-lösningar som kräver dynamisk verktygsanvändning, iterativt resonemang och integration med flera resurser.

Dokumenthämtare

FlowHunts Dokumenthämtare förbättrar AI-noggrannheten genom att koppla generativa modeller till dina egna uppdaterade dokument och webbadresser, vilket säkerställer tillförlitliga och relevanta svar med Retrieval-Augmented Generation (RAG).

Chatthistorik-komponent

Chatthistorik-komponenten i FlowHunt gör det möjligt för chatbots att minnas tidigare meddelanden, vilket säkerställer sammanhängande konversationer och förbättrad kundupplevelse samtidigt som minnes- och tokenanvändning optimeras.

Chattutgång

Upptäck Chattutgång-komponenten i FlowHunt—slutför chatbottsvar med flexibla, flerdelade utdata. Oumbärlig för smidig avslutning av flöden och skapande av avancerade, interaktiva AI-chattbottar.

Flow-beskrivning

Syfte och fördelar

Detta arbetsflöde är utformat för att automatisera, effektivisera och skala processen för kundsupport och produktrekommendation genom att använda API-integrationer, dokumentsökning, språkmodeller och dynamisk databehandling. Nedan följer en detaljerad genomgång av dess struktur, komponenter och den automation som tillhandahålls.

Översikt och syfte

Huvudmålet med flödet är att fungera som en intelligent, automatiserad kundtjänst- och shoppingassistent för ett företag, med avancerad AI (OpenAI LLM:er), dynamisk promptkonstruktion, API-anrop och dokumentsökning. Det är utformat för att besvara kundfrågor, hämta relevant kunskap, rekommendera produkter och eskalera till mänskliga agenter vid behov – allt med en vänlig, professionell ton och strukturerad utdata.

Ett sådant arbetsflöde möjliggör skalbar och konsekvent kundinteraktion, minskar manuellt arbete och säkerställer högkvalitativa supportsvar även när efterfrågan ökar.


Arbetsflödets struktur och nyckelsteg

1. Inmatning och chatt-historik

  • Chat Input-noden samlar in användarmeddelanden och filbilagor som startpunkt.
  • Chat History-noden hämtar de senaste N meddelandena och tillhandahåller samtalskontext, vilket möjliggör personliga och kontextuella svar.

2. Promptkonstruktion

  • Prompt Templates genererar dynamiskt API-URL:er med användarens inmatning och chatt-historik. Exempelvis:
    • En mall konstruerar en URL för att hämta samtalsdata från LiveAgent (byt ut YOURLINK mot din faktiska domän).
    • En annan mall används för att posta nya meddelanden till LiveAgent.
  • Noteringar ingår som påminnelser om att infoga API-nycklar eller uppdatera LiveAgent-länken i mallarna.

3. API-förfrågningar

  • Arbetsflödet använder två API Request-noder:
    • En för att hämta samtalsinformation (GET-förfrågningar).
    • En annan för att skicka meddelanden eller interagera med samtalet (POST-förfrågningar).
  • Create Data-noder bygger de nödvändiga frågeparametrarna eller body-datan dynamiskt för dessa API-anrop (t.ex. inklusive API-nycklar eller meddelandeinnehåll).

4. Dataparsning och bearbetning

  • Parse Data-noder konverterar API-svar från strukturerad data till vanlig text, eventuellt med hjälp av mallar för formatering.
  • Detta gör att utdata från API-anropen kan bearbetas vidare av AI eller visas för användaren.

5. Kunskapsinhämtning

  • Document Retriever är ett integrerat verktyg som söker i en kunskapsbas eller dokumentationsdatabas baserat på användarens fråga, och returnerar de mest relevanta dokumenten, utdrag eller länkar.
  • Det tillhandahåller kunskap som ett verktyg för AI-agenten att referera till – vilket säkerställer att svaren är förankrade i företagets kunskap.

6. AI-generering och efterbearbetning

  • LLM OpenAI-noder (två används med olika konfigurationer) ger tillgång till stora språkmodeller (t.ex. GPT-4.1) för att generera svar och extrahera strukturerad information.
  • Generator-noden använder LLM för att extrahera specifika avsnitt (t.ex. “Preview”) från bearbetade API-svar.

7. Agentorkestrerad logik

  • Tool Calling Agent är den centrala resonemotor:
    • Tar emot bearbetad indata, chatt-historik och tillgång till verktyg (som Document Retriever).
    • Använder en omfattande systemprompt för att säkerställa att svaren följer företagets policyer, ton och struktur.
    • Avgör dynamiskt om svaret ska ges från kunskapsbasen, om klargörande frågor ska ställas eller om ärendet ska eskaleras till en mänsklig agent.
    • Säkerställer att utdata är koncis (100–200 tokens), välformaterad och på kundens föredragna språk.

8. Utmatningsvisning

  • Chat Output-noder visar det slutliga AI-genererade eller bearbetade meddelandet för användaren.
  • Arbetsflödet stödjer flera utmatningspunkter för olika steg (t.ex. efter AI-generering, efter agentlogik osv.).

Komponentrelationer (förenklad tabell)

StegInmatningUtmatningSyfte
Chat InputAnvändarmeddelandeMeddelandeIngångspunkt för kundfrågor
Chat History-Chatt-historikTillhandahåller kontext för personliga svar
Prompt TemplatesAnvändarinmatning, historikAPI-URL:er (text)Bygger dynamiskt URL:er för API-anrop
Create Data-Fråge-/body-dataBygger nödvändig data för API-förfrågningar
API RequestURL, parametrar/bodyAPI-svarHämtar eller skickar data till extern tjänst (t.ex. LiveAgent)
Parse DataAPI-svarTextKonverterar strukturerad data till vanlig text för LLM/användare
LLM OpenAIPrompt, parametrarAI-genererad textGenererar text, extraherar information
GeneratorText, modellBearbetad textExtraherar specifik info (t.ex. “Preview”) från indata
Document RetrieverFrågaDokument/verktygHittar relevant info i företagets kunskapsbas
Tool Calling AgentIndata, verktyg, historikResonerat meddelandeOrkestrerar svar, verktygsanvändning, eskalering, formatering
Chat OutputMeddelande-Visar meddelande för användaren

Varför detta flöde är användbart för automation och skalning

  • Konsekvens: Säkerställer att varje kund får korrekta, policyenliga och varumärkesanpassade svar, oavsett volym.
  • Skalbarhet: Hanterar obegränsat antal samtidiga samtal genom att använda AI och automatiserade verktyg istället för enbart mänskliga agenter.
  • Effektivitet: Minskar manuellt arbete för agenter genom att automatisera kunskapsinhämtning, svars­generering och även eskaleringslogik.
  • Personalisering: Integrerar chatt-historik och kontext för skräddarsydda svar.
  • Utbyggbarhet: Kan enkelt anpassas eller utökas genom att ändra promptmallar, lägga till nya API-integrationer eller uppdatera kunskapskällor.
  • Flerspråksstöd: AI-agenten kan svara på kundens föredragna språk, vilket förbättrar användarupplevelsen.

Automationslogik – höjdpunkter

  • Dynamisk inmatningshantering: Flödet anpassar sina API-anrop och kunskapsfrågor baserat på aktuell användarinmatning och samtalskontext.
  • Villkorad logik: Agenten väljer bästa källa (kunskapsbas, API eller mänsklig eskalering) för varje svar.
  • Strukturerad utdata: Tvingar fram korta, välformaterade och engagerande svar, inklusive punktlistor, fetstil och emojis.
  • Säkerhet: Påminner om att API-nycklar ska infogas säkert och företagsspecifika länkar ska uppdateras.
  • Feedback-slingor: Agenten kan ställa klargörande frågor eller eskalera till mänsklig support när automationen inte kan lösa ärendet.

Sammanfattning

Detta arbetsflöde är en robust, modulär automation för AI-driven kundsupport och produktrekommendation. Det kombinerar chattinmatning, dynamisk API-integration, dokumentsökning och avancerade språkmodeller under en samordnad agent. Genom att automatisera repetitiva uppgifter och utnyttja AI för resonemang kan din supportverksamhet skala effektivt samtidigt som en hög servicenivå och personalisering bibehålls.

Låt oss bygga ditt eget AI-team

Vi hjälper företag som ditt att utveckla smarta chatbotar, MCP-servrar, AI-verktyg eller andra typer av AI-automatisering för att ersätta människor i repetitiva uppgifter i din organisation.

Lär dig mer

Shopify AI-kundsupportagent
Shopify AI-kundsupportagent

Shopify AI-kundsupportagent

Ett arbetsflöde för en AI-driven kundtjänstagentsom kan besvara frågor om Shopify-produkter, hämta orderstatus och få tillgång till information från intern doku...

3 min läsning
AI-kundtjänstchattbot med mänsklig överlämning
AI-kundtjänstchattbot med mänsklig överlämning

AI-kundtjänstchattbot med mänsklig överlämning

En AI-driven kundtjänstchattbot som automatiskt assisterar användare, hämtar information från interna dokument och webben, och sömlöst eskalerar till en mänskli...

3 min läsning