Descrizione del flusso
Scopo e benefici
Panoramica del Workflow di Ricerca Semantica
Questo workflow, intitolato “Ricerca Semantica”, consente agli utenti di cercare informazioni all’interno della propria knowledgebase privata sfruttando modelli linguistici avanzati e tecniche di ricerca semantica. È progettato per eseguire una scansione su tutti i domini programmati, documenti e sezioni Q&A, automatizzando il recupero delle informazioni più rilevanti in risposta alle query degli utenti.
Interazione Utente e Messaggio di Benvenuto
Quando un utente apre l’interfaccia chat, il workflow attiva un messaggio di benvenuto:
- Message Widget visualizza:
👋 Benvenuto nello strumento di ricerca della knowledgebase privata!
Sono qui per aiutarti a cercare tra i documenti della tua knowledgebase privata 📚. Scansionerò tutti i domini programmati, i documenti privati e le sezioni Q&A per trovare le informazioni di cui hai bisogno.
Inserisci semplicemente la tua query e iniziamo a trovare le risposte! ✨🔍
Questo messaggio amichevole aiuta gli utenti a orientarsi e li guida nell’inserimento della query di ricerca.
Elaborazione ed Espansione della Query
Input Utente:
L’utente invia una query tramite il campo di input della chat.
Espansione della Query:
- La query viene inviata a un componente di Espansione della Query.
- Alimentato da un modello linguistico OpenAI (specificamente,
gpt-4o-mini
), questo componente genera fino a tre query parafrasate o semanticamente simili. - L’obiettivo è aumentare le possibilità di recuperare tutti i documenti rilevanti, anche quando la formulazione iniziale della query è ambigua o limitata.
Componente | Scopo |
---|
Chat Input | Raccoglie la domanda di ricerca dell’utente |
OpenAI LLM (gpt-4o-mini) | Genera formulazioni alternative della query |
Espansione della Query | Produce fino a 3 varianti di query per la ricerca |
Recupero Documenti
- Le query espanse vengono inviate a un Document Retriever.
- Questo componente cerca nella knowledgebase privata dell’utente, inclusi domini programmati, documenti e sezioni Q&A.
- Recupera fino a 10 dei documenti più rilevanti, concentrandosi sul contenuto all’interno degli header
<H1>
per massimizzare la rilevanza contestuale.
Presentazione dei Risultati
- I documenti recuperati sono inviati a un Document Widget, che li formatta e li presenta in modo adatto alla chat.
- I risultati finali compilati vengono mostrati all’utente nell’interfaccia chat.
Fase | Componente | Tipo di Output |
---|
Recupero Documenti | Document Retriever | Documenti grezzi |
Formattazione Risultati | Document Widget | Messaggio |
Visualizzazione Utente | Chat Output | Messaggio chat |
Diagramma del Workflow
flowchart LR
A[Chat Opened] --> B[Welcome Message]
B --> C[User Query Input]
C --> D[Query Expansion\n(OpenAI LLM)]
D --> E[Document Retriever]
E --> F[Document Widget]
F --> G[Chat Output]
Vantaggi e Casi d’Uso
- Automazione: Il workflow automatizza la ricerca semantica, risparmiando lavoro manuale e garantendo un’esperienza sempre amichevole e guidata per l’utente.
- Scalabilità: Espandendo le query e cercando su tutte le fonti rilevanti, il workflow offre una copertura robusta, rendendolo adatto a knowledgebase ampie o complesse.
- Precisione: Sfruttare gli LLM per la parafrasi riduce il rischio di perdere informazioni a causa della formulazione della query.
- Esperienza Utente: Feedback immediato e istruzioni chiare rendono lo strumento facile da usare anche per utenti non tecnici.
Tipici casi d’uso:
- Gestione interna della conoscenza per team di supporto
- Portali di ricerca FAQ e documenti a livello aziendale
- Assistenti automatici per dataset privati o proprietari
Integrando la ricerca semantica con l’espansione delle query alimentata dagli LLM, questo workflow garantisce agli utenti un accesso efficiente alle conoscenze rilevanti, aumentando produttività e scoperta delle informazioni.