Flow-beskrivning
Syfte och fördelar
Översikt
Detta arbetsflöde automatiserar processen att hämta kundmeddelanden från ett ärende- eller supportsystem, extrahera det senaste relevanta meddelandet, förstärka det med kontext och chatt-historik och sedan utnyttja avancerad AI (LLMs) i kombination med kunskapsverktyg för att generera professionella, flerspråkiga kundsupportssvar. Processen förbereder och skickar sedan dessa svar tillbaka till externa system, vilket gör det idealiskt för att skala och automatisera kundsupport, kunskapshämtning och extern API-integration.
Steg-för-steg-genomgång
1. Inmatning och förberedelse
- Chattinmatning: Arbetsflödet kan ta emot inkommande chattmeddelanden direkt.
- Skapa prompt för API: Systemet använder en promptmall för att dynamiskt konstruera URL:en för att hämta ärendemeddelanden från ett externt API (t.ex.
https://arshiakahani.ladesk.com/api/v3/tickets/{input}/messages
). Detta möjliggör flexibel hämtning baserat på inkommande användardata. - Bygga frågeparametrar: En dataskapande nod används för att dynamiskt bygga nödvändiga frågeparametrar för API-förfrågan.
2. Extern datahämtning
- API-förfrågan: Med den konstruerade URL:en och frågeparametrarna skickar arbetsflödet en GET-förfrågan för att hämta ärendets meddelandehistorik från ett externt ärendehanteringssystem. API-nyckelautentisering stöds via headers.
- Tolka hämtad data: När API:et returnerar data strukturerar och omvandlar en parsernod denna data till vanlig text med hjälp av mallar, vilket gör den lämplig för AI-bearbetning nedströms.
3. Utdrag och förbearbetning av meddelanden
- LLM-baserad extraktion: En OpenAI LLM (t.ex. GPT-4.1) används med en systemprompt för att extrahera endast det senaste användarmeddelandet från ärendets data (specifikt meddelanden av typen “M”)—så att endast relevant innehåll bearbetas vidare.
- Förstärkning av prompt: Det extraherade meddelandet och chattkontexten infogas i en sofistikerad promptmall som inkluderar konversationshistorik och segmentering av senaste meddelande, vilket förbereder indata till huvudagenten för support.
4. Kunskapsförstärkning
- Chatt-historik: Systemet kan slå upp de senaste N meddelandena i konversationen för att ge kontinuitet och rikare kontext.
- Dokumenthämtning: Ett dokumenthämtarverktyg söker interna/externa kunskapsbaser (valfritt inklusive Google Docs) för relevant information för att besvara kundens fråga. Detta är avgörande för att förankra svaren i uppdaterad och korrekt kunskap.
- Verktygsintegration: Både dokumenthämtaren och Google Docs-hämtaren är registrerade som “verktyg” tillgängliga för agenten, vilket möjliggör dynamisk uppslagning under svargenerering.
5. Agentstyrd svargenerering
- Verktygsanropande agent: I centrum finns en verktygsanropande agent (driven av en LLM) som får den berikade prompten, chatt-historiken och tillgång till kunskapsverktyg. Dess roll är att avgöra användarens avsikt, söka i kunskapsbas/verktyg efter svar och komponera ett koncist, vänligt och professionellt svar.
- Agenten svarar alltid på slovakiska som standard eller växlar till kundens språk om det upptäcks.
- Strukturerad formatering upprätthålls: korta stycken, fetstil för betoning, punktlistor och emojis för engagemang.
- Agenten prioriterar att använda hämtad kunskap, hittar aldrig på fakta eller URL:er, ber om förtydligande vid behov och eskalerar olösta ärenden till mänskliga agenter.
- Alla svar följer tonläget och strukturen för kundsupport, lämpliga för e-postkommunikation.
6. Efterbearbetning och utdata
- Svarformatering: Agentens svar bearbetas vidare via promptmallar för att konstruera flerspråkig utdata (t.ex. både slovakiska och kundens ursprungliga språk).
- LLM-generering: En annan LLM-nod kan generera eller översätta delar av utdata vid behov.
- API-integration för utgående meddelanden: Arbetsflödet bygger dynamiskt dataobjekt för utgående API-förfrågningar, paketerar det genererade svaret och skickar det (vanligtvis via POST) till relevant externt system.
- Tolkning och slutgiltig utdata: Utgående API-svar kan tolkas och visas i chattlekplatsen eller skickas tillbaka till användargränssnittet.
Nyckelkomponenter & deras syfte
Komponent | Syfte |
---|
Chattinmatning | Tar emot användar-/kundmeddelanden |
Promptmall | Bygger dynamiskt URL:er och meddelandeprompter |
API-förfrågan | Hämtar ärendedata/meddelanden från externt system |
Tolka data | Omvandlar strukturerad data till vanlig text |
OpenAI LLM | Extraherar relevanta meddelanden, genererar eller översätter svar |
Dokumenthämtare | Söker kunskapsbasen för relevant information |
Google Docs-hämtare | Integrerar externa dokument som kunskap för agenten |
Verktygsanropande agent | Central AI-supportagent—använder verktyg och chatt-historik |
Skapa data | Paketerar svar och data för utgående API-förfrågningar |
Chattutdata | Visar slutresultatet för slutanvändare eller system |
Anteckningar | Ger operatörsguider (t.ex. var API-nycklar/URL:er matas in) |
Användningsområden & Fördelar
- Automatiserad kundsupport: Effektiviserar processen att extrahera, förstärka och besvara kundförfrågningar med professionella, exakta och kontextmedvetna svar.
- Flerspråkig support: Upptäcker och svarar automatiskt på kundens språk, med översättning och formatering hanterad av arbetsflödet.
- Skalbar kunskapshantering: Integrerar flera kunskapskällor (interna dokument, Google Docs, etc.) för omfattande och aktuella svar.
- Sömlös integration med externa system: Kopplas enkelt till olika API:er för både inkommande (hämta meddelanden) och utgående (skicka svar) åtgärder.
- Mänsklig eskalering vid behov: Lämnar automatiskt över olösta eller oklara fall till mänskliga agenter för att säkerställa högkvalitativ support.
Varför detta arbetsflöde är användbart för skalning & automation
- Minskar manuellt arbete: Genom att automatisera datahämtning, meddelandeutdrag, kontextbyggande och svargenerering minimeras behovet av mänsklig inblandning för rutinmässiga supportfrågor.
- Kvalitet & konsekvens: Säkerställer att all kundkommunikation följer företagets ton, format och informationsnoggrannhet, oavsett agent eller skift.
- Snabb anpassning: Kopplas enkelt till nya datakällor eller API:er, anpassas till nya språk och kan skala för att hantera högre supportvolymer med liten extra konfiguration.
- Förbättrad kundnöjdhet: Snabba, relevanta och vänliga svar—anpassade till varje kunds språk och fråga—leder till bättre upplevelser och lojalitet.
Visuellt flöde (förenklad)
Nedan visas en förenklad flödesschema-representation av huvudstegen:
- Chattinmatning / API-förfrågan →
- Hämta ärendemeddelanden (API-förfrågan) →
- Tolka data →
- Extrahera senaste användarmeddelande (LLM) →
- Förstärk prompt med kontext & historik →
- Hämta kunskap (Dokument/Google Docs-hämtare) →
- Verktygsanropande agent (LLM) genererar svar →
- Formatera/översätt/skicka svar (API-förfrågan) →
- Visa/leverera utdata
Detta arbetsflöde utgör en robust grund för alla organisationer som vill automatisera och skala kundsupport, teknisk assistans eller informationsleveransflöden som kräver integration med externa API:er, kunskapsbaser och avancerade AI-svar.