
mcp-local-rag Máy chủ MCP
Máy chủ MCP mcp-local-rag cung cấp tìm kiếm web Retrieval-Augmented Generation (RAG) tại chỗ, bảo vệ quyền riêng tư cho LLMs. Nó cho phép trợ lý AI truy cập, nh...
Một máy chủ MCP bộ nhớ ngữ nghĩa cục bộ cho FlowHunt, xây dựng với ChromaDB và Ollama. Cho phép AI ghi nhớ và truy xuất văn bản, tài liệu và PDF dựa trên ý nghĩa, hỗ trợ RAG mạnh mẽ và quy trình quản lý tri thức.
mcp-rag-local MCP Server được thiết kế như một máy chủ bộ nhớ cho phép trợ lý AI lưu trữ và truy xuất các đoạn văn bản dựa trên ý nghĩa ngữ nghĩa, không chỉ từ khóa. Với Ollama để tạo embedding văn bản và ChromaDB để lưu trữ vector và tìm kiếm tương đồng, máy chủ giúp lưu trữ (“ghi nhớ”) và truy xuất các văn bản liên quan cho một truy vấn bất kỳ. Điều này nâng cao các quy trình AI như quản lý tri thức, ghi nhớ theo ngữ cảnh và tìm kiếm ngữ nghĩa. Lập trình viên có thể tương tác với máy chủ để lưu từng đoạn văn, nhiều đoạn văn hoặc thậm chí nội dung file PDF, và sau đó truy xuất thông tin liên quan nhất theo ngữ cảnh, gia tăng hiệu quả và nhận thức ngữ cảnh cho ứng dụng.
memorize_text
Cho phép máy chủ lưu trữ một đoạn văn bản để truy xuất ngữ nghĩa sau này.
memorize_multiple_texts
Cho phép lưu trữ hàng loạt nhiều đoạn văn cùng lúc, hỗ trợ nhập tri thức số lượng lớn.
memorize_pdf_file
Đọc và trích xuất tối đa 20 trang mỗi lần từ file PDF, chia nhỏ nội dung và ghi nhớ để truy xuất ngữ nghĩa.
retrieve_similar_texts
Truy xuất các đoạn văn liên quan nhất đã lưu dựa trên truy vấn của người dùng, sử dụng tương đồng ngữ nghĩa.
(Tên công cụ suy luận từ các mẫu sử dụng được ghi nhận; tên thực tế có thể thay đổi trong mã nguồn.)
Cơ sở tri thức cá nhân
Nhà phát triển và người dùng có thể xây dựng cơ sở tri thức bền vững, có thể tìm kiếm bằng cách ghi nhớ bài báo, ghi chú, tài liệu nghiên cứu để truy xuất ngữ nghĩa.
Tóm tắt tài liệu và PDF
Bằng cách ghi nhớ toàn bộ tài liệu PDF, người dùng có thể truy vấn và truy xuất các phần hoặc bản tóm tắt liên quan, giúp nghiên cứu và tổng hợp nhanh chóng.
Bộ nhớ hội thoại cho chatbot
Nâng cao trợ lý AI hoặc chatbot với bộ nhớ dài hạn, nhận biết ngữ cảnh, mang lại phản hồi mạch lạc, phù hợp hơn theo thời gian.
Công cụ tìm kiếm ngữ nghĩa
Triển khai tính năng tìm kiếm ngữ nghĩa trong ứng dụng, cho phép người dùng tìm thông tin dựa trên ý nghĩa chứ không chỉ từ khóa.
Khám phá nghiên cứu và dữ liệu
Lưu trữ và truy vấn tài liệu kỹ thuật, đoạn mã hoặc tài liệu khoa học để truy xuất nhanh chóng, dựa vào ý nghĩa khi điều tra hoặc phát triển.
git clone <repository-url>
cd mcp-rag-local
docker-compose up
để khởi động ChromaDB và Ollama.docker exec -it ollama ollama pull all-minilm:l6-v2
mcpServers
):"mcp-rag-local": {
"command": "uv",
"args": [
"--directory",
"path\\to\\mcp-rag-local",
"run",
"main.py"
],
"env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434"
}
}
"mcpServers": {
"mcp-rag-local": {
"command": "uv",
"args": [
"--directory",
"path\\to\\mcp-rag-local",
"run",
"main.py"
],
"env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434"
}
}
}
"mcpServers": {
"mcp-rag-local": {
"command": "uv",
"args": [
"--directory",
"path\\to\\mcp-rag-local",
"run",
"main.py"
],
"env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434"
}
}
}
"mcpServers": {
"mcp-rag-local": {
"command": "uv",
"args": [
"--directory",
"path\\to\\mcp-rag-local",
"run",
"main.py"
],
"env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434"
}
}
}
env
của cấu hình."env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434",
"MY_API_KEY": "${MY_API_KEY}"
}
Sử dụng MCP trong FlowHunt
Để tích hợp máy chủ MCP vào quy trình FlowHunt, hãy thêm thành phần MCP vào flow và kết nối với agent AI của bạn:
Nhấp vào thành phần MCP để mở bảng cấu hình. Trong phần cấu hình MCP hệ thống, chèn thông tin máy chủ MCP của bạn sử dụng định dạng JSON sau:
{
"mcp-rag-local": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
Sau khi cấu hình, agent AI có thể sử dụng MCP này như một công cụ với đầy đủ chức năng. Hãy nhớ thay “mcp-rag-local” thành tên thực tế của MCP server bạn sử dụng và thay URL bằng URL máy chủ MCP của bạn.
Mục | Có sẵn | Chi tiết/Ghi chú |
---|---|---|
Tổng quan | ✅ | |
Danh sách Prompt | ⛔ | Không có prompt/template được ghi nhận |
Danh sách Tài nguyên | ⛔ | Không có tài nguyên được ghi nhận |
Danh sách Công cụ | ✅ | memorize_text, memorize_multiple_texts, v.v. |
Bảo mật API Key | ✅ | qua env trong cấu hình, ví dụ minh họa |
Hỗ trợ Sampling (ít quan trọng khi đánh giá) | ⛔ | Không đề cập |
MCP này đơn giản, tập trung vào bộ nhớ ngữ nghĩa, nhưng thiếu các tính năng nâng cao như template prompt, tài nguyên rõ ràng, hoặc hỗ trợ sampling/roots. Bộ công cụ và hướng dẫn thiết lập rõ ràng. Phù hợp nhất cho các quy trình RAG/tri thức cục bộ đơn giản.
Có LICENSE | ✅ (MIT) |
---|---|
Có ít nhất một công cụ | ✅ |
Số Forks | 1 |
Số Stars | 5 |
Đây là máy chủ MCP cục bộ cung cấp cho agent AI khả năng lưu trữ và truy xuất văn bản, tài liệu và PDF theo ý nghĩa ngữ nghĩa. Sử dụng Ollama và ChromaDB, nó giúp quản lý tri thức, bộ nhớ theo ngữ cảnh và tìm kiếm ngữ nghĩa cho ứng dụng của bạn.
Nó cung cấp các công cụ để lưu trữ một hoặc nhiều đoạn văn bản, nhập file PDF và truy xuất các văn bản tương tự thông qua tìm kiếm ngữ nghĩa. Điều này hỗ trợ xây dựng cơ sở tri thức cá nhân, tóm tắt tài liệu và bộ nhớ hội thoại cho chatbot.
Cài đặt uv và Docker, clone repo, khởi động Ollama và ChromaDB, cấu hình máy chủ MCP trong file cấu hình của client với các port chỉ định. Biến môi trường được sử dụng để cấu hình an toàn.
Các trường hợp sử dụng bao gồm xây dựng cơ sở tri thức ngữ nghĩa, tóm tắt tài liệu/PDF, nâng cao bộ nhớ chatbot, tìm kiếm ngữ nghĩa, và khám phá dữ liệu nghiên cứu.
Luôn sử dụng biến môi trường trong phần env của cấu hình để tránh ghi cứng thông tin nhạy cảm, đảm bảo bảo mật và tuân thủ thực hành tốt nhất.
Tăng tốc quy trình AI của bạn với bộ nhớ ngữ nghĩa và tìm kiếm tài liệu cục bộ bằng mcp-rag-local. Thiết lập chỉ trong vài phút và thay đổi cách các agent ghi nhớ, suy luận tri thức.
Máy chủ MCP mcp-local-rag cung cấp tìm kiếm web Retrieval-Augmented Generation (RAG) tại chỗ, bảo vệ quyền riêng tư cho LLMs. Nó cho phép trợ lý AI truy cập, nh...
Máy chủ Ragie MCP cho phép trợ lý AI thực hiện tìm kiếm ngữ nghĩa và truy xuất thông tin liên quan từ các cơ sở tri thức Ragie, nâng cao quy trình phát triển vớ...
Rememberizer MCP Server là cầu nối giữa trợ lý AI và quản lý tri thức, cho phép tìm kiếm ngữ nghĩa, truy xuất tài liệu thống nhất và hợp tác nhóm trên Slack, Gm...