Echtzeit-Domain-spezifischer RAG-Chatbot

Ein Echtzeit-Chatbot, der Google Search auf Ihre eigene Domain beschränkt, relevante Webinhalte abruft und das OpenAI LLM nutzt, um Benutzeranfragen mit aktuellen Informationen zu beantworten. Ideal für genaue, domain-spezifische Antworten im Kundensupport oder in Informationsportalen.

So funktioniert der KI-Flow - Echtzeit-Domain-spezifischer RAG-Chatbot

So funktioniert der KI-Flow

Benutzereingabe

Erfasst Benutzerfragen über den Chat-Eingabebereich oder vordefinierte Schaltflächen.

Abfrageerweiterung

Paraphrasiert und erweitert die Benutzeranfrage, um die Genauigkeit der Informationssuche zu verbessern.

Domain-spezifische Google-Suche

Führt eine Google-Suche mit den erweiterten Anfragen durch, die auf die festgelegte Domain begrenzt ist.

Webinhalt-Abruf

Ruft die Inhalte der relevantesten URLs ab, die durch die Suche zurückgegeben wurden.

LLM-Antwortgenerierung

Verwendet das OpenAI LLM, um eine finale, kontextreiche Antwort zu generieren, die dem Benutzer angezeigt wird.

In diesem Flow verwendete Prompts

Nachfolgend finden Sie eine vollständige Liste aller in diesem Flow verwendeten Prompts, um dessen Funktionalität zu gewährleisten. Prompts sind die Anweisungen, die dem KI-Modell gegeben werden, um Antworten zu generieren oder Aktionen auszuführen. Sie leiten die KI dabei, die Absicht des Benutzers zu verstehen und relevante Ausgaben zu generieren.

In diesem Flow verwendete Komponenten

Nachfolgend finden Sie eine vollständige Liste aller Komponenten, die in diesem Flow verwendet werden, um seine Funktionalität zu gewährleisten. Komponenten sind die Bausteine jedes KI-Flows. Sie ermöglichen es Ihnen, komplexe Interaktionen zu erstellen und Aufgaben zu automatisieren, indem verschiedene Funktionalitäten verbunden werden. Jede Komponente dient einem bestimmten Zweck, wie z.B. der Verarbeitung von Benutzereingaben, der Datenverarbeitung oder der Integration mit externen Diensten.

Flow-Beschreibung

Zweck und Vorteile

Übersicht

Dieser Workflow implementiert einen einfachen Retrieval-Augmented Generation (RAG)-Chatbot, der die Echtzeit-Google-Suche nutzt, um aktuelle Informationen aus dem Internet abzurufen – insbesondere kann er so angepasst werden, dass alle Suchen auf eine bestimmte Domain beschränkt werden. Das Hauptziel ist die Erstellung eines Chatbots, der Benutzeranfragen mit den relevantesten und aktuellsten online verfügbaren Inhalten beantworten kann, was ihn besonders wertvoll für Szenarien macht, in denen statische Wissensdatenbanken nicht ausreichen.

Wichtige Komponenten und Ablauf

Der Workflow besteht aus mehreren modularen Blöcken, die jeweils eine bestimmte Fähigkeit repräsentieren. Nachfolgend finden Sie eine Übersicht über die Struktur und Funktionalität des Workflows:

KomponenteRolle
Chat InputEmpfängt Benutzeranfragen und Chat-Nachrichten.
Chat HistoryHält den Verlauf der Konversation für kontextbezogene Antworten fest.
Query ExpansionParaphrasiert die Benutzereingabe in mehrere alternative Anfragen, um die Suchabdeckung zu erhöhen.
Google SearchFührt Google-Suchen durch, die durch ein anpassbares Domain-Präfix eingeschränkt sind.
URL RetrieverExtrahiert Inhalte aus den durch die Google-Suche zurückgegebenen URLs.
Prompt TemplateStrukturiert Kontext, Benutzereingabe und Verlauf für das Sprachmodell.
OpenAI LLMGeneriert Antworten mit einem Sprachmodell (z.B. GPT-3/4).
GeneratorRuft das LLM mit Prompt und Kontext auf, um die Antwort zu erzeugen.
Chat OutputZeigt Chatbot-Antworten dem Benutzer an.
Button WidgetsBietet schnelle Beispielanfragen, die Benutzer mit einem Klick ausprobieren können.
Chat Opened TriggerInitialisiert die Konversation und füllt Schnellstart-Schaltflächen.

So funktioniert der Workflow

Wenn ein Benutzer den Chat öffnet, wird der Chat Opened Trigger aktiviert. Dies initialisiert die Chat-Oberfläche und präsentiert mehrere Button Widgets mit Beispielanfragen (z.B. „Welcher Dinosaurier hat 500 Zähne?“). Wenn ein Benutzer eine Schaltfläche anklickt oder eine eigene Nachricht über Chat Input eingibt, läuft der Workflow folgendermaßen ab:

  1. Abfrageerweiterung: Die Eingabe des Benutzers wird in mehrere Varianten paraphrasiert, um die Wahrscheinlichkeit zu erhöhen, relevante Suchergebnisse zu erhalten.

  2. Google-Suche: Die erweiterten Anfragen werden an die Google-Suche gesendet. Standardmäßig ist die Suche auf eine bestimmte Domain beschränkt (festgelegt durch das Feld query_prefix, z.B. site: www.IHREDOMAIN.com), sodass Sie das Wissen des Chatbots auf Ihre eigene Website oder eine beliebige vertrauenswürdige Quelle fokussieren können.

  3. URL Retriever: Der Workflow ruft den Inhalt der obersten Suchergebnisse (URLs) als vollständige Dokumente ab.

  4. Prompt-Zusammenstellung: Die abgerufenen Inhalte, die Benutzereingabe und der Chatverlauf werden mit dem Prompt Template-Komponenten zu einem reichhaltigen Kontext für die Antwort kombiniert.

  5. Sprachmodell-Generierung: Das Prompt wird an das OpenAI LLM gesendet, das eine zusammenhängende und kontextuell relevante Antwort generiert.

  6. Antwortausgabe: Die generierte Antwort wird dem Benutzer über den Chat Output angezeigt.

Beispielablauf eines Anwendungsfalls

  • Benutzer öffnet den Chat: Begrüßungsnachricht und drei Beispiel-Frageschaltflächen erscheinen.
  • Benutzer klickt „Wann ist Muttertag 2024?“: Die Frage erscheint sofort in der Chat-Ausgabe (für sofortiges Feedback).
  • Der Workflow durchläuft Abfrageerweiterung, Suche, Abruf, Prompt-Zusammenstellung und LLM-Generierung und zeigt dann die Antwort an.

Warum dieser Workflow nützlich ist

  • Aktuelles Wissen in Echtzeit: Der Chatbot kann Fragen anhand der neuesten im Internet oder in Ihrer Domain verfügbaren Informationen beantworten.
  • Domain-Beschränkung: Durch Anpassung des query_prefix können Sie sicherstellen, dass der Chatbot Informationen ausschließlich von Ihrer vertrauenswürdigen Website oder Wissensdatenbank bezieht, was die Verlässlichkeit der Antworten verbessert.
  • Kontextbewusstsein: Durch die Einbeziehung von Chatverlauf und abgerufenen Inhalten in das Prompt können Antworten maßgeschneidert und für mehrstufige Konversationen kontextuell relevant sein.
  • Skalierbarkeit und Automatisierung: Das modulare Design ermöglicht eine einfache Erweiterung oder Anpassung des Workflows für verschiedene Bereiche und unterstützt eine großflächige Bereitstellung auf unterschiedlichen Themen oder Websites.
  • Benutzererlebnis: Schnellstart-Schaltflächen und sofortiges Feedback machen den Chatbot für Endbenutzer besonders zugänglich.

Workflow-Zusammenfassungstabelle

SchrittBeschreibung
BenutzereingabeBenutzer tippt eine Frage oder klickt auf eine Schnellstart-Schaltfläche
AbfrageerweiterungDie Eingabe wird zur besseren Suchabdeckung paraphrasiert
Google-SucheSuchen werden bei Google innerhalb einer bestimmten Domain durchgeführt
URL-Inhalt-AbrufInhalte der besten Suchergebnisse werden abgerufen
Prompt-ErstellungBenutzereingabe, Suchergebnisse und Chatverlauf werden zu einem Prompt zusammengeführt
LLM-GenerierungOpenAI LLM generiert eine Antwort unter Einbeziehung des vollständigen Kontexts
AusgabeAntwort wird dem Benutzer angezeigt

Anpassung

  • Um den Chatbot auf Ihre eigene Domain zu beschränken, passen Sie das Feld query_prefix in der Google Search-Komponente an (z.B. site: www.IHREDOMAIN.com).
  • Fügen Sie Beispielanfragen hinzu oder ändern Sie diese über die Button Widget-Komponenten, um das Benutzererlebnis individuell zu gestalten.

Ideale Anwendungsfälle

  • Kundensupport-Bots, die immer Antworten auf Basis Ihrer aktuellen Dokumentation oder Webinhalte geben.
  • Interne Wissensassistenten, die auf das Intranet oder Support-Portal Ihres Unternehmens beschränkt sind.
  • Jeder Chatbot, der immer externe, autoritative Quellen zitieren oder nutzen muss (z.B. für Compliance oder Genauigkeit).

Durch die Automatisierung von Suche, Abruf und Antwortgenerierung spart dieser Workflow manuelle Recherchezeit und stellt sicher, dass Benutzer stets die aktuellsten und relevantesten verfügbaren Informationen erhalten.

Lassen Sie uns Ihr eigenes KI-Team aufbauen

Wir helfen Unternehmen wie Ihrem, intelligente Chatbots, MCP-Server, KI-Tools oder andere Arten von KI-Automatisierungen zu entwickeln, um Menschen bei sich wiederholenden Aufgaben in Ihrer Organisation zu ersetzen.

Mehr erfahren