Flow-beskrivelse
Formål og fordele
Dette workflow, med titlen “Semantisk Søgning”, gør det muligt for brugere at søge efter information i deres private vidensbase ved at udnytte avancerede sprogmodeller og semantiske søgeteknikker. Det er designet til at scanne på tværs af alle planlagte domæner, dokumenter og Q&A-sektioner og automatiserer hentning af de mest relevante informationer som svar på brugerforespørgsler.
Brugerinteraktion og velkomstbesked
Når en bruger åbner chatgrænsefladen, udløser workflowet en velkomstbesked:
- Message Widget viser:
👋 Velkommen til det Private Vidensbase-søgeværktøj!
Jeg er her for at hjælpe dig med at søge i dokumenter i din private vidensbase 📚. Jeg scanner alle planlagte domæner, private dokumenter og Q&A-sektioner for at finde de informationer, du har brug for.
Indtast blot din forespørgsel, og lad os komme i gang med at finde svarene! ✨🔍
Denne venlige besked hjælper brugere med at finde sig til rette og guider dem til at indtaste deres søgeforespørgsel.
Forespørgselsbehandling og udvidelse
Brugerinput:
Brugeren indsender en forespørgsel via chatindgangsfeltet.
Forespørgselsudvidelse:
- Forespørgslen sendes til en Forespørgselsudvidelse-komponent.
- Drevet af en OpenAI-sprogsmodel (specifikt
gpt-4o-mini
) genererer denne komponent op til tre omskrevne eller semantisk lignende forespørgsler. - Formålet er at øge chancerne for at hente alle relevante dokumenter, selv når den oprindelige forespørgsel er tvetydig eller begrænset.
Komponent | Formål |
---|
Chat Input | Indsamler brugerens søgespørgsmål |
OpenAI LLM (gpt-4o-mini) | Genererer alternative formuleringer af forespørgslen |
Forespørgselsudvidelse | Producerer op til 3 varianter af forespørgslen til søgning |
Dokumenthentning
- De udvidede forespørgsler sendes videre til en Document Retriever.
- Denne komponent søger i brugerens private vidensbase, inklusive planlagte domæner, dokumenter og Q&A-sektioner.
- Den henter op til 10 af de mest relevante dokumenter og fokuserer på indhold inden for
<H1>
-overskrifter for at maksimere kontekst-relevans.
Præsentation af resultater
- De hentede dokumenter sendes videre til en Document Widget, som formaterer og præsenterer dem på en chatvenlig måde.
- De endelige, samlede resultater vises tilbage til brugeren i chatgrænsefladen.
Trin | Komponent | Outputtype |
---|
Hent dokumenter | Document Retriever | Rå dokumenter |
Formater resultater | Document Widget | Besked |
Vis til bruger | Chat Output | Chatbesked |
Workflowdiagram
flowchart LR
A[Chat Opened] --> B[Welcome Message]
B --> C[User Query Input]
C --> D[Query Expansion\n(OpenAI LLM)]
D --> E[Document Retriever]
E --> F[Document Widget]
F --> G[Chat Output]
Fordele og anvendelsesmuligheder
- Automatisering: Workflowet automatiserer semantisk søgning, sparer manuelt arbejde og sikrer, at brugere altid får en venlig og guidet oplevelse.
- Skalerbarhed: Ved at udvide forespørgsler og søge på tværs af alle relevante kilder giver workflowet robust dækning og egner sig til store eller komplekse vidensbaser.
- Præcision: Udnyttelse af LLM’er til omskrivning reducerer risikoen for at overse information på grund af forespørgselsformulering.
- Brugeroplevelse: Øjeblikkelig feedback og klare instruktioner gør værktøjet brugervenligt, selv for ikke-tekniske brugere.
Typiske anvendelsestilfælde:
- Intern vidensstyring for supportteams
- Virksomhedsdækkende FAQ- og dokumentsøgningsportaler
- Automatiserede assistenter til private eller proprietære datasæt
Ved at integrere semantisk søgning med LLM-drevet forespørgselsudvidelse sikrer dette workflow, at brugerne effektivt kan få adgang til relevant viden, hvilket øger produktivitet og informationsopdagelse.