KI-Kundensupport-Agent für LiveAgent

Dieser Workflow automatisiert den Kundensupport für Ihr Unternehmen, indem er LiveAgent-Konversationen integriert, relevante Konversationsdaten extrahiert, Antworten mithilfe von KI-Modellen generiert und Dokumente aus der Wissensdatenbank abruft. Der KI-Agent bearbeitet eingehende Supportanfragen, reichert den Kontext aus Wissensquellen an und liefert präzise, professionelle Antworten in einem kundenfreundlichen Format.

Thumbnail for Video
So funktioniert der KI-Flow - KI-Kundensupport-Agent für LiveAgent

Flows

So funktioniert der KI-Flow

Kundenanfrage empfangen.
Sammelt eingehende Kundenmeldungen als ersten Input für den Workflow.
LiveAgent-Konversationsdaten abrufen.
Erzeugt LiveAgent-API-URLs und ruft Konversationsdatensätze ab, die sich auf die Kundenanfrage beziehen.
Konversationsinhalte extrahieren und verarbeiten.
Parst API-Antworten, um wichtige Konversationsdaten zu extrahieren, und nutzt anschließend KI, um relevante Abschnitte zur weiteren Analyse zusammenzufassen oder zu extrahieren.
Mit Wissensdatenbank & KI-Agent anreichern.
Ruft relevanten Kontext aus der Wissensdatenbank ab und verwendet einen KI-Agenten, um eine präzise, hilfreiche Antwort für den Kunden zu generieren.
Endgültige Antwort liefern.
Formatiert und gibt die KI-generierte Antwort an den Kunden aus und stellt sicher, dass die Antwort klar, professionell und mit den nötigen Informationen versehen ist.

In diesem Flow verwendete Prompts

Nachfolgend finden Sie eine vollständige Liste aller in diesem Flow verwendeten Prompts, um dessen Funktionalität zu gewährleisten. Prompts sind die Anweisungen, die dem KI-Modell gegeben werden, um Antworten zu generieren oder Aktionen auszuführen. Sie leiten die KI dabei, die Absicht des Benutzers zu verstehen und relevante Ausgaben zu generieren.

Tool Calling Agent

Ein Tool-Calling-Agent.

                Sie sind ein KI-Sprachmodell-Assistent, der als freundlicher und professioneller Kundensupport- und Shopping-Assistent für Ihr Unternehmen agiert. Sie antworten standardmäßig auf Slowakisch oder in der vom Kunden erkannten Sprache, falls diese von Slowakisch abweicht. UND VERWENDEN SIE IMMER DEN EMAIL-TON UND DAS EMAIL-FORMAT.

<u>Ihre Rolle:</u>

Sie kombinieren die Aufgaben des technischen Kundensupports und des Produktberatung-Assistenten. Sie helfen Kunden bei der Lösung von Problemen, bei Entscheidungen und bei der Bestellung von Produkten und Dienstleistungen Ihres Unternehmens. Ihr Ton ist stets freundlich und professionell und Ihr Ziel ist es, sicherzustellen, dass der Kunde sich verstanden, unterstützt und sicher bei seinem nächsten Schritt fühlt.

<u>Ihr Ziel:</u>

Sie erhalten die Konversationshistorie und die aktuellste Nutzeranfrage; Ihr Ziel ist es, die aktuellste Anfrage auf Grundlage der Ihnen zur Verfügung stehenden Tools zu beantworten.&#x20;

<u>Absicht erkennen und Antworten geben:</u>

Erste Quelle: DURCHSUCHEN SIE IMMER ZUERST DAS knowledge_source_tool, UM DIE FRAGE DES NUTZERS ZU BEANTWORTEN, UND ANTWORTEN SIE NIEMALS AUS EIGENEM WISSEN.

Zweite Quelle: Verwenden Sie immer das Document Retriever Tool, um Kontext zu finden, der mit der Frage zusammenhängt.

Wenn relevanter Kontext gefunden wird:

Nutzen Sie diesen, um genaue, prägnante Antworten zu geben.

Fügen Sie NUR RELEVANTE URLs hinzu, die vom Document Retriever abgerufen wurden, und bearbeiten Sie die URL niemals.

Erfinden Sie niemals Produkt- oder Kategorienamen. Sie erkennen eine Kategorie daran, dass die Seite EINE LISTE UNTERSCHIEDLICHER PRODUKTE enthalten MUSS; verwenden Sie nur die, die in Ihrer Wissensdatenbank verfügbar sind.

Folgen Sie exakt den Angaben in der Referenz.

Wenn kein relevanter Kontext gefunden wird und die Frage Ihr Unternehmen betrifft:

Stellen Sie höfliche Rückfragen, um weitere Details zu erhalten.

Wenn das Problem weiterhin ungelöst bleibt, nutzen Sie das Contact Human Assist Tool, um an einen menschlichen Support-Agenten weiterzuleiten.

Wenn die Nachricht des Kunden unklar oder unvollständig ist:

Raten Sie nicht — bitten Sie immer um weitere Informationen, bevor Sie antworten.

Wenn der Kunde Interesse an einem bestimmten Produkt zeigt:

Teilen Sie ihm mit, dass Preis und Bestellung direkt auf der Website schnell und einfach möglich sind.

Er kann das Produkt (Maße, Extras, Menge…) konfigurieren, sieht den Preis sofort und auch die Produktionszeit.

Wenn die Frage die Produktionszeit betrifft, nennen Sie immer auch Express-Optionen, falls verfügbar.

Bei Anfragen, die nicht Ihr Unternehmen betreffen:

Teilen Sie dem Kunden höflich mit, dass Sie nur Support für Ihr Unternehmen bieten.

Schlagen Sie vor, das entsprechende Business-Support-Team unter [Your Company@Your Company.sk](mailto:YourCompany@YourCompany.sk) zu kontaktieren.

<u>Ressourcennutzung:</u>

Verwenden Sie den Document Retriever, um relevantes Wissen zur Kundenfrage zu suchen.

Verwenden Sie das Contact Human Assist Tool, um bei Bedarf zu eskalieren.

Verwenden Sie den Document Retriever, um gültige Produkt- oder Informationslinks bereitzustellen – ERFINDEN ODER VERMUTEN SIE NIEMALS URLs

<u>Formatierung:</u>

Ihr Ton ist immer freundlich, klar und professionell.

Die Antworten sollten KURZ sein – maximal etwa 100–200 Tokens.

Verwenden Sie eine strukturierte Formatierung:

Kurze Absätze

Fettgedruckter Text zur Hervorhebung

Aufzählungspunkte, wo sinnvoll

Emojis, um die Nachrichten ansprechender zu gestalten 😊

Schreiben Sie im Klartextformat. Verwenden Sie kein Markdown.

            

In diesem Flow verwendete Komponenten

Nachfolgend finden Sie eine vollständige Liste aller Komponenten, die in diesem Flow verwendet werden, um seine Funktionalität zu gewährleisten. Komponenten sind die Bausteine jedes KI-Flows. Sie ermöglichen es Ihnen, komplexe Interaktionen zu erstellen und Aufgaben zu automatisieren, indem verschiedene Funktionalitäten verbunden werden. Jede Komponente dient einem bestimmten Zweck, wie z.B. der Verarbeitung von Benutzereingaben, der Datenverarbeitung oder der Integration mit externen Diensten.

ChatInput

Die Chat Input-Komponente in FlowHunt initiiert Benutzerinteraktionen, indem sie Nachrichten aus dem Playground erfasst. Sie dient als Startpunkt für Flows und ermöglicht die Verarbeitung von Text- und dateibasierten Eingaben im Workflow.

Prompt-Komponente in FlowHunt

Erfahren Sie, wie die Prompt-Komponente von FlowHunt es ermöglicht, die Rolle und das Verhalten Ihres KI-Bots zu definieren und so relevante, personalisierte Antworten sicherstellt. Passen Sie Prompts und Vorlagen an, um effektive, kontextbewusste Chatbot-Flows zu erstellen.

Daten erstellen

Die Komponente 'Daten erstellen' ermöglicht das dynamische Generieren strukturierter Datensätze mit einer anpassbaren Anzahl an Feldern. Ideal für Workflows, die das Erstellen neuer Datenobjekte in Echtzeit erfordern – mit flexibler Feldkonfiguration und nahtloser Integration in weitere Automatisierungsschritte.

API-Anfrage

Integrieren Sie externe Daten und Dienste in Ihren Workflow mit der API-Anfrage-Komponente. Senden Sie mühelos HTTP-Anfragen, setzen Sie benutzerdefinierte Header, Body und Query-Parameter und nutzen Sie verschiedene Methoden wie GET und POST. Unverzichtbar, um Ihre Automatisierungen mit jeder Web-API oder jedem Dienst zu verbinden.

Daten parsen

Die Komponente 'Daten parsen' wandelt strukturierte Daten mithilfe anpassbarer Vorlagen in Klartext um. Sie ermöglicht eine flexible Formatierung und Konvertierung von Dateneingaben für die weitere Verwendung im Workflow und hilft, Informationen zu standardisieren oder für nachgelagerte Komponenten vorzubereiten.

LLM OpenAI

FlowHunt unterstützt Dutzende von Textgenerierungsmodellen, darunter Modelle von OpenAI. So verwenden Sie ChatGPT in Ihren AI-Tools und Chatbots.

Generator

Entdecken Sie die Komponente Generator in FlowHunt – leistungsstarke, KI-gesteuerte Textgenerierung mit Ihrem gewählten LLM-Modell. Erstellen Sie mühelos dynamische Chatbot-Antworten, indem Sie Prompts, optionale Systemanweisungen und sogar Bilder als Eingabe kombinieren. So wird es zu einem zentralen Werkzeug für den Aufbau intelligenter, konversationeller Workflows.

Tool Calling Agent

Entdecken Sie den Tool Calling Agent in FlowHunt – eine fortschrittliche Workflow-Komponente, die es KI-Agenten ermöglicht, externe Tools intelligent auszuwählen und zu nutzen, um komplexe Anfragen zu beantworten. Perfekt für den Aufbau intelligenter KI-Lösungen, die dynamische Tool-Nutzung, iteratives Denken und die Integration mehrerer Ressourcen erfordern.

Dokumenten-Retriever

FlowHunts Dokumenten-Retriever verbessert die Genauigkeit von KI, indem generative Modelle mit Ihren eigenen aktuellen Dokumenten und URLs verbunden werden. So erhalten Sie zuverlässige und relevante Antworten durch Retrieval-Augmented Generation (RAG).

Chatverlauf-Komponente

Die Chatverlauf-Komponente in FlowHunt ermöglicht es Chatbots, sich an vorherige Nachrichten zu erinnern. So werden zusammenhängende Gespräche und ein verbessertes Kundenerlebnis gewährleistet, während Speicher und Token-Nutzung optimiert werden.

Chat-Ausgabe

Entdecken Sie die Chat-Ausgabe-Komponente in FlowHunt – finalisieren Sie Chatbot-Antworten mit flexiblen, mehrteiligen Ausgaben. Unverzichtbar für nahtlose Flow-Abschlüsse und die Erstellung fortschrittlicher, interaktiver KI-Chatbots.

Flow-Beschreibung

Zweck und Vorteile

Workflow-Beschreibung

Dieser Workflow ist darauf ausgelegt, fortschrittlichen Kundensupport und Wissensabruf zu automatisieren und zu skalieren. Dabei werden LLMs (Large Language Models), dynamische Datenerstellung, externe API-Anfragen (wie LiveAgent) und automatisierte Dokumentensuche genutzt. Er ist besonders nützlich für Organisationen, die Supportprozesse effizienter gestalten, Kundenanfragen mit kontextbewussten Antworten beantworten sowie Wissensdatenbank-Abfragen mit externen Systemen integrieren möchten.

Überblick auf hoher Ebene

Der Workflow orchestriert diese Hauptschritte:

  • Entgegennahme von Nutzereingaben (per Chat)
  • Aufbau dynamischer API-Anfragen basierend auf Nutzereingabe und Kontext
  • Abruf und Parsen von Daten aus externen Quellen (z. B. LiveAgent)
  • Nutzung von LLMs, um relevante Informationen aus Antworten zu extrahieren und zusammenzufassen
  • Ergänzung der Antworten durch Dokumentensuche aus der Wissensdatenbank
  • Einsatz eines LLM-basierten Agenten zur Generierung kundenfertiger Antworten, die immer auf abgerufenem Kontext basieren
  • Präsentation der Antwort an den Nutzer

Hauptkomponenten und Ablauf

SchrittKomponenteZweck
1Chat InputAkzeptiert Nutzeranfragen oder Nachrichten
2Prompt TemplateBildet dynamische URLs für API-Anfragen, indem Nutzereingaben und Kontext in vorgegebene Templates eingesetzt werden
3API RequestSendet HTTP-Anfragen (GET/POST) an externe APIs (z. B. LiveAgent), inklusive Parametern und Body
4Parse DataWandelt API-Antworten (JSON/Daten) in Klartext oder strukturierte Prompts für die LLM-Verarbeitung um
5LLM GeneratorNutzt ein LLM (z. B. OpenAI GPT-4.1), um bestimmte Abschnitte (z. B. “Preview”) aus Eingabedaten zu extrahieren
6Tool Calling AgentEin LLM-Agent, der sämtlichen Kontext, Verlauf und Tools erhält und durch einen angepassten Systemprompt gesteuert wird
7Document RetrieverSucht Wissensquellen nach relevanten Dokumenten basierend auf der Nutzeranfrage
8Chat OutputPräsentiert die finale Antwort oder Nachrichten an den Nutzer

Detaillierte Schritte

1. Nutzereingabe und Kontext-Erfassung

  • Der Prozess beginnt mit einem Chat Input-Knoten, der die Nachricht des Nutzers entgegennimmt.
  • Der Chat History-Knoten ruft die letzten N Nachrichten ab und ermöglicht kontextbasierte Antworten.
  • Ein Prompt Template verwendet Nutzereingabe und Verlauf, um dynamisch eine URL für die externe API zu generieren (z. B. um ein Gesprächsprotokoll von LiveAgent abzurufen).

2. API-Anfrage-Konstruktion

  • Create Data-Knoten ermöglichen die dynamische Erstellung von Query-Parametern oder Request-Bodys (inklusive sicherer Speicherung von API-Keys oder anderen notwendigen Feldern).
  • Die generierte URL und Parameter werden an einen API Request-Knoten übergeben, der mit externen Systemen (wie LiveAgent) interagiert, um die benötigten Daten abzurufen.

3. Datenparsing und Vorverarbeitung

  • API-Antworten werden mit Parse Data-Knoten verarbeitet, um Rohdaten in strukturierte Texte umzuwandeln oder nur relevante Felder zu extrahieren.
  • Diese geparsten Daten werden an den LLM Generator-Knoten übergeben, der mit einem klar definierten Systemprompt spezifische Informationen (z. B. den Abschnitt “Preview”) extrahiert.

4. Wissensanreicherung

  • Parallel dazu ermöglicht der Document Retriever-Knoten dem System, in internen Wissensdatenbanken nach besonders relevanten Dokumenten zur Nutzeranfrage zu suchen und den Agenten mit autoritativem Kontext anzureichern. Dieses Tool wird dem LLM-Agenten zur Verfügung gestellt.

5. LLM-Agenten-Antwortgenerierung

  • Der Tool Calling Agent-Knoten ist ein leistungsstarker, LLM-basierter Agent, der:
    • Nutzereingaben, API-Antworten, Chatverlauf und Zugang zu Tools (Document Retriever, Contact Human Assist, usw.) erhält
    • Durch einen detaillierten Systemprompt gesteuert wird, der festlegt:
      • Immer autoritative Quellen nutzen (z. B. Document Retriever, knowledge_source_tool)
      • Niemals Antworten oder URLs erfinden
      • Bei Bedarf Rückfragen stellen
      • Antworten stets freundlich, professionell und prägnant formatieren
      • Aufzählungspunkte, Fettdruck und Emojis für ansprechende Antworten verwenden
      • Immer auf Slowakisch (oder erkannter Nutzersprache) und im Email-Stil antworten
      • Bei nicht lösbaren Anfragen an den menschlichen Support eskalieren
  • Dadurch ist sichergestellt, dass jede Kundenantwort korrekt, kontextbasiert, richtlinienkonform und hochgradig skalierbar ist.

6. Ausgabe an den Nutzer

  • Die finale generierte Antwort (vom LLM-Agenten) wird geparst und formatiert und anschließend über Chat Output-Knoten an den Nutzer übermittelt.

Hinweise und Best Practices

  • API-Key und LiveAgent-Link: Der Workflow enthält Notiz-Knoten, die daran erinnern, den eigenen API-Key einzufügen und YOURLINK in den Prompt-Templates durch die eigene LiveAgent-Instanz-URL zu ersetzen.
  • Sicherheit und Compliance: API-Keys und sensible Daten werden mit dynamischen Datenknoten verarbeitet, um das Risiko einer versehentlichen Offenlegung zu minimieren.
  • Erweiterbarkeit: Das modulare Design ermöglicht eine einfache Ergänzung weiterer Tools, Daten-Transformationen oder Ausgabekanäle.

Warum ist dieser Workflow nützlich für Skalierung und Automatisierung?

  • End-to-End-Automatisierung: Integriert mehrere Datenquellen (Live-Chat, APIs, Wissensdatenbank) und automatisiert Entscheidungsfindung und Antwortprozess.
  • LLM-gestütztes Reasoning: Nutzt modernste LLMs für kontextuelles Verständnis, Informationsgewinnung und menschenähnliche Kommunikation.
  • Konsistenter, hochwertiger Support: Der Systemprompt des Agenten erzwingt Unternehmensrichtlinien, Tonalität, Eskalationswege und stellt sicher, dass keine halluzinierten Daten geliefert werden.
  • Schnelle Integration externer Systeme: Anpassung an verschiedene APIs oder Wissensdatenbanken ist durch Anpassung der Prompt-Templates und Verbindungsknoten einfach möglich.
  • Human-in-the-Loop-Eskalation: Übergibt komplexe Fälle nahtlos an menschliche Agenten, um auch Randfälle abzudecken.
  • Skalierbarkeit: Kann große Mengen von Anfragen parallel mit gleichbleibender Genauigkeit und Compliance verarbeiten.

Zusammenfassungstabelle der wichtigsten Knoten

KnotentypHauptrolle
NoteHinweise und Anleitungen zur Konfiguration
Chat Input/OutputEndpunkte für die Nutzerinteraktion
Chat HistoryStellt Kontext aus vorherigen Interaktionen bereit
Create DataBaut API-Request-Daten dynamisch auf
Prompt TemplateGeneriert Anfrage-URLs oder Prompts
API RequestInteragiert mit externen Diensten
Parse DataTransformiert Rohdaten für LLM-Verarbeitung
LLM GeneratorExtrahiert/verarbeitet Informationen mit LLM
Document RetrieverSucht interne Wissensquellen
Tool Calling AgentOrchestriert Tools und generiert Antworten

Dieser Workflow eignet sich ideal zur Automatisierung des Kundensupports, zur Integration mit externen Ticket- oder Chat-Systemen und zur Sicherstellung, dass LLM-basierte Antworten stets auf autoritativem Unternehmenswissen basieren. Er kann das Rückgrat eines skalierbaren, intelligenten Support-Assistenten für den Unternehmenseinsatz bilden.

Lassen Sie uns Ihr eigenes KI-Team aufbauen

Wir helfen Unternehmen wie Ihrem, intelligente Chatbots, MCP-Server, KI-Tools oder andere Arten von KI-Automatisierungen zu entwickeln, um Menschen bei sich wiederholenden Aufgaben in Ihrer Organisation zu ersetzen.

Mehr erfahren

KI-Kundensupport-Agent mit LiveAgent-API-Integration
KI-Kundensupport-Agent mit LiveAgent-API-Integration

KI-Kundensupport-Agent mit LiveAgent-API-Integration

Dieser KI-gestützte Workflow automatisiert den Kundensupport, indem er Benutzeranfragen mit Wissensquellen des Unternehmens, externen APIs (wie LiveAgent) und e...

4 Min. Lesezeit
KI-Chatbot mit LiveChat.com-Integration
KI-Chatbot mit LiveChat.com-Integration

KI-Chatbot mit LiveChat.com-Integration

Setzen Sie einen KI-gestützten Chatbot auf Ihrer Website ein, der Ihre interne Wissensdatenbank nutzt, um Kundenanfragen zu beantworten, und leitet komplexe ode...

3 Min. Lesezeit