Flow-beskrivelse
Formål og fordeler
Denne arbeidsflyten, med tittelen “Semantisk søk”, gjør det mulig for brukere å søke etter informasjon i sin private kunnskapsbase ved å utnytte avanserte språkmodeller og semantiske søketeknikker. Den er designet for å skanne gjennom alle planlagte domener, dokumenter og Q&A-seksjoner, og automatiserer innhentingen av den mest relevante informasjonen som svar på brukerforespørsler.
Brukerinteraksjon og velkomstmelding
Når en bruker åpner chat-grensesnittet, utløser arbeidsflyten en velkomstmelding:
- Melding-widget viser:
👋 Velkommen til det private kunnskapsbase-søkverktøyet!
Jeg er her for å hjelpe deg med å søke gjennom dokumenter i din private kunnskapsbase 📚. Jeg vil skanne alle planlagte domener, private dokumenter og Q&A-seksjoner for å finne informasjonen du trenger.
Skriv bare inn din forespørsel, så starter vi jakten på svarene! ✨🔍
Denne vennlige meldingen hjelper brukeren med å orientere seg og veileder dem til å skrive inn sitt søkespørsmål.
Forespørselsbehandling og utvidelse
Brukerinndata:
Brukeren sender inn en forespørsel via chat-inndatafeltet.
Forespørselsutvidelse:
- Forespørselen sendes til en Forespørselsutvidelse-komponent.
- Drevet av en OpenAI-språkmodell (spesifikt
gpt-4o-mini
), genererer denne komponenten opptil tre omformulerte eller semantisk lignende forespørsler. - Hensikten er å øke sjansen for å hente ut alle relevante dokumenter, selv når den opprinnelige formuleringen er uklar eller begrenset.
Komponent | Formål |
---|
Chat-inndata | Samler inn brukerens søkespørsmål |
OpenAI LLM (gpt-4o-mini) | Genererer alternative formuleringer av spørsmålet |
Forespørselsutvidelse | Produserer opptil 3 varianter for søk |
Dokumenthenting
- De utvidede forespørslene sendes til en Dokumenthenter.
- Denne komponenten søker i brukerens private kunnskapsbase, inkludert planlagte domener, dokumenter og Q&A-seksjoner.
- Den henter opptil 10 av de mest relevante dokumentene, med fokus på innhold innenfor
<H1>
-overskrifter for å maksimere kontekstrelevans.
Presentasjon av resultater
- De hentede dokumentene mates inn i en Dokument-widget, som formaterer og presenterer dem på en chat-vennlig måte.
- De endelige sammenstilte resultatene vises tilbake til brukeren i chat-grensesnittet.
Steg | Komponent | Utdata-type |
---|
Hent dokumenter | Dokumenthenter | Rå-dokumenter |
Formater resultater | Dokument-widget | Melding |
Vises til bruker | Chat-utdata | Chat-melding |
Arbeidsflytdiagram
flowchart LR
A[Chat Opened] --> B[Welcome Message]
B --> C[User Query Input]
C --> D[Query Expansion\n(OpenAI LLM)]
D --> E[Document Retriever]
E --> F[Document Widget]
F --> G[Chat Output]
Fordeler og brukstilfeller
- Automatisering: Arbeidsflyten automatiserer semantisk søk, sparer manuell innsats og sikrer at brukeren alltid får en vennlig og veiledende opplevelse.
- Skalerbarhet: Ved å utvide forespørsler og søke på tvers av alle relevante kilder, gir arbeidsflyten robust dekning og passer til store eller komplekse kunnskapsbaser.
- Nøyaktighet: Utnyttelse av LLM for omformulering reduserer risikoen for å gå glipp av informasjon på grunn av hvordan et spørsmål er formulert.
- Brukeropplevelse: Umiddelbar tilbakemelding og tydelige instruksjoner gjør verktøyet brukervennlig, selv for ikke-tekniske brukere.
Typiske brukstilfeller:
- Intern kunnskapshåndtering for supportteam
- Bedriftsomfattende FAQ- og dokumentsøk-portaler
- Automatiserte assistenter for private eller proprietære datasett
Ved å integrere semantisk søk med LLM-drevet forespørselsutvidelse sikrer denne arbeidsflyten at brukere effektivt får tilgang til relevant kunnskap, noe som øker produktivitet og informasjonsinnhenting.