Mô tả luồng
Mục đích và lợi ích
Quy trình này, có tên “Tìm kiếm Ngữ nghĩa”, cho phép người dùng tìm kiếm thông tin trong kho tri thức riêng tư của họ bằng cách tận dụng các mô hình ngôn ngữ tiên tiến và kỹ thuật tìm kiếm ngữ nghĩa. Nó được thiết kế để quét tất cả các miền, tài liệu và mục Hỏi & Đáp đã được lên lịch, tự động truy xuất thông tin liên quan nhất nhằm đáp ứng truy vấn của người dùng.
Tương tác người dùng và Tin nhắn chào mừng
Khi người dùng mở giao diện chat, quy trình sẽ kích hoạt một tin nhắn chào mừng:
- Message Widget hiển thị:
👋 Chào mừng đến với Công cụ Tìm kiếm Kho Tri thức Riêng tư!
Tôi ở đây để giúp bạn tìm kiếm trong các tài liệu thuộc kho tri thức riêng tư 📚. Tôi sẽ quét tất cả các miền đã lên lịch, tài liệu riêng tư và mục Hỏi & Đáp để tìm thông tin bạn cần.
Chỉ cần nhập truy vấn của bạn, và cùng bắt đầu tìm câu trả lời nhé! ✨🔍
Thông điệp thân thiện này giúp định hướng người dùng và hướng dẫn họ nhập truy vấn tìm kiếm.
Xử lý và mở rộng truy vấn
Nhập liệu của người dùng:
Người dùng gửi truy vấn qua trường nhập liệu chat.
Mở rộng truy vấn:
- Truy vấn được gửi đến thành phần Mở rộng Truy vấn.
- Được hỗ trợ bởi mô hình ngôn ngữ OpenAI (cụ thể là
gpt-4o-mini
), thành phần này tạo ra tối đa ba truy vấn được diễn giải lại hoặc tương tự về mặt ngữ nghĩa. - Mục đích là tăng khả năng truy xuất tất cả các tài liệu liên quan, ngay cả khi cách diễn đạt ban đầu của truy vấn còn mơ hồ hoặc hạn chế.
Thành phần | Mục đích |
---|
Chat Input | Thu thập câu hỏi tìm kiếm của người dùng |
OpenAI LLM (gpt-4o-mini) | Tạo ra các cách diễn đạt thay thế cho truy vấn |
Mở rộng Truy vấn | Sinh tối đa 3 biến thể truy vấn để tìm kiếm |
Truy xuất tài liệu
- Các truy vấn đã mở rộng được chuyển tới Document Retriever.
- Thành phần này sẽ tìm kiếm trong kho tri thức riêng tư của người dùng, bao gồm các miền đã lên lịch, tài liệu và mục Hỏi & Đáp.
- Nó lấy tối đa 10 tài liệu liên quan nhất, tập trung vào nội dung trong các thẻ
<H1>
để tối đa hóa mức độ liên quan theo ngữ cảnh.
Trình bày kết quả
- Các tài liệu được truy xuất sẽ được đưa vào Document Widget, nơi chúng được định dạng và trình bày theo cách thân thiện với giao diện chat.
- Kết quả cuối cùng sẽ được hiển thị lại cho người dùng trong giao diện chat.
Bước | Thành phần | Loại đầu ra |
---|
Truy xuất tài liệu | Document Retriever | Tài liệu thô |
Định dạng kết quả | Document Widget | Tin nhắn |
Hiển thị cho người dùng | Chat Output | Tin nhắn chat |
Sơ đồ quy trình
flowchart LR
A[Chat Opened] --> B[Welcome Message]
B --> C[User Query Input]
C --> D[Query Expansion\n(OpenAI LLM)]
D --> E[Document Retriever]
E --> F[Document Widget]
F --> G[Chat Output]
Lợi ích và các trường hợp sử dụng
- Tự động hóa: Quy trình tự động hóa việc tìm kiếm ngữ nghĩa, tiết kiệm công sức thủ công và đảm bảo người dùng luôn nhận được trải nghiệm thân thiện, có hướng dẫn.
- Khả năng mở rộng: Bằng cách mở rộng truy vấn và tìm kiếm trên tất cả nguồn liên quan, quy trình cung cấp mức độ bao phủ mạnh mẽ, phù hợp với các kho tri thức lớn hoặc phức tạp.
- Độ chính xác: Ứng dụng LLM để diễn giải lại giúp giảm nguy cơ bỏ sót thông tin do cách đặt câu hỏi.
- Trải nghiệm người dùng: Phản hồi tức thì và hướng dẫn rõ ràng giúp công cụ thân thiện với cả đối tượng không chuyên về kỹ thuật.
Các trường hợp sử dụng điển hình:
- Quản lý tri thức nội bộ cho đội ngũ hỗ trợ
- Cổng tìm kiếm tài liệu và FAQ cho toàn công ty
- Trợ lý tự động cho bộ dữ liệu riêng tư hoặc độc quyền
Bằng cách tích hợp tìm kiếm ngữ nghĩa với mở rộng truy vấn dựa trên LLM, quy trình này đảm bảo người dùng có thể truy cập hiệu quả các tri thức liên quan, gia tăng năng suất và khả năng khám phá thông tin.