mcp-rag-local Máy chủ MCP

mcp-rag-local Máy chủ MCP

Một máy chủ MCP bộ nhớ ngữ nghĩa cục bộ cho FlowHunt, xây dựng với ChromaDB và Ollama. Cho phép AI ghi nhớ và truy xuất văn bản, tài liệu và PDF dựa trên ý nghĩa, hỗ trợ RAG mạnh mẽ và quy trình quản lý tri thức.

Máy chủ “mcp-rag-local” MCP làm gì?

mcp-rag-local MCP Server được thiết kế như một máy chủ bộ nhớ cho phép trợ lý AI lưu trữ và truy xuất các đoạn văn bản dựa trên ý nghĩa ngữ nghĩa, không chỉ từ khóa. Với Ollama để tạo embedding văn bản và ChromaDB để lưu trữ vector và tìm kiếm tương đồng, máy chủ giúp lưu trữ (“ghi nhớ”) và truy xuất các văn bản liên quan cho một truy vấn bất kỳ. Điều này nâng cao các quy trình AI như quản lý tri thức, ghi nhớ theo ngữ cảnh và tìm kiếm ngữ nghĩa. Lập trình viên có thể tương tác với máy chủ để lưu từng đoạn văn, nhiều đoạn văn hoặc thậm chí nội dung file PDF, và sau đó truy xuất thông tin liên quan nhất theo ngữ cảnh, gia tăng hiệu quả và nhận thức ngữ cảnh cho ứng dụng.

Danh sách Prompt

  • Không có template prompt cụ thể nào được đề cập trong repo hoặc tài liệu.

Danh sách Tài nguyên

  • Không có tài nguyên MCP cụ thể nào được ghi nhận trong repo hoặc README.

Danh sách Công cụ

  • memorize_text
    Cho phép máy chủ lưu trữ một đoạn văn bản để truy xuất ngữ nghĩa sau này.

  • memorize_multiple_texts
    Cho phép lưu trữ hàng loạt nhiều đoạn văn cùng lúc, hỗ trợ nhập tri thức số lượng lớn.

  • memorize_pdf_file
    Đọc và trích xuất tối đa 20 trang mỗi lần từ file PDF, chia nhỏ nội dung và ghi nhớ để truy xuất ngữ nghĩa.

  • retrieve_similar_texts
    Truy xuất các đoạn văn liên quan nhất đã lưu dựa trên truy vấn của người dùng, sử dụng tương đồng ngữ nghĩa.

(Tên công cụ suy luận từ các mẫu sử dụng được ghi nhận; tên thực tế có thể thay đổi trong mã nguồn.)

Các trường hợp sử dụng MCP Server này

  • Cơ sở tri thức cá nhân
    Nhà phát triển và người dùng có thể xây dựng cơ sở tri thức bền vững, có thể tìm kiếm bằng cách ghi nhớ bài báo, ghi chú, tài liệu nghiên cứu để truy xuất ngữ nghĩa.

  • Tóm tắt tài liệu và PDF
    Bằng cách ghi nhớ toàn bộ tài liệu PDF, người dùng có thể truy vấn và truy xuất các phần hoặc bản tóm tắt liên quan, giúp nghiên cứu và tổng hợp nhanh chóng.

  • Bộ nhớ hội thoại cho chatbot
    Nâng cao trợ lý AI hoặc chatbot với bộ nhớ dài hạn, nhận biết ngữ cảnh, mang lại phản hồi mạch lạc, phù hợp hơn theo thời gian.

  • Công cụ tìm kiếm ngữ nghĩa
    Triển khai tính năng tìm kiếm ngữ nghĩa trong ứng dụng, cho phép người dùng tìm thông tin dựa trên ý nghĩa chứ không chỉ từ khóa.

  • Khám phá nghiên cứu và dữ liệu
    Lưu trữ và truy vấn tài liệu kỹ thuật, đoạn mã hoặc tài liệu khoa học để truy xuất nhanh chóng, dựa vào ý nghĩa khi điều tra hoặc phát triển.

Cách thiết lập

Windsurf

  1. Điều kiện tiên quyết:
    • Cài đặt uv làm trình quản lý gói Python.
    • Đảm bảo đã cài đặt và bật Docker.
  2. Clone và Cài đặt:
    • Clone repo:
      git clone <repository-url>
      cd mcp-rag-local
    • Cài đặt phụ thuộc bằng uv.
  3. Khởi động Dịch vụ:
    • Chạy docker-compose up để khởi động ChromaDB và Ollama.
    • Kéo mô hình embedding:
      docker exec -it ollama ollama pull all-minilm:l6-v2
  4. Cấu hình Máy chủ MCP:
    • Thêm vào cấu hình MCP của Windsurf (ví dụ trong mcpServers):
      "mcp-rag-local": {
        "command": "uv",
        "args": [
          "--directory",
          "path\\to\\mcp-rag-local",
          "run",
          "main.py"
        ],
        "env": {
          "CHROMADB_PORT": "8321",
          "OLLAMA_PORT": "11434"
        }
      }
      
  5. Lưu và Khởi động lại:
    • Lưu cấu hình và khởi động lại Windsurf.
  6. Kiểm tra Thiết lập:
    • Xác nhận máy chủ đang chạy và truy cập được.

Claude

  1. Thực hiện các bước 1–3 ở trên (điều kiện tiên quyết, clone/cài đặt, khởi động dịch vụ).
  2. Thêm vào cấu hình MCP của Claude:
    "mcpServers": {
      "mcp-rag-local": {
        "command": "uv",
        "args": [
          "--directory",
          "path\\to\\mcp-rag-local",
          "run",
          "main.py"
        ],
        "env": {
          "CHROMADB_PORT": "8321",
          "OLLAMA_PORT": "11434"
        }
      }
    }
    
  3. Lưu và khởi động lại Claude.
  4. Kiểm tra máy chủ đã được liệt kê và hoạt động.

Cursor

  1. Thực hiện các bước 1–3 (như trên).
  2. Thêm vào cấu hình Cursor:
    "mcpServers": {
      "mcp-rag-local": {
        "command": "uv",
        "args": [
          "--directory",
          "path\\to\\mcp-rag-local",
          "run",
          "main.py"
        ],
        "env": {
          "CHROMADB_PORT": "8321",
          "OLLAMA_PORT": "11434"
        }
      }
    }
    
  3. Lưu và khởi động lại Cursor.
  4. Kiểm tra MCP server đã hoạt động.

Cline

  1. Thực hiện lại các bước 1–3 (điều kiện tiên quyết, clone/cài đặt, khởi động dịch vụ).
  2. Trong cấu hình Cline, thêm:
    "mcpServers": {
      "mcp-rag-local": {
        "command": "uv",
        "args": [
          "--directory",
          "path\\to\\mcp-rag-local",
          "run",
          "main.py"
        ],
        "env": {
          "CHROMADB_PORT": "8321",
          "OLLAMA_PORT": "11434"
        }
      }
    }
    
  3. Lưu, khởi động lại Cline và kiểm tra thiết lập.

Bảo mật API Key

  • Sử dụng biến môi trường trong phần env của cấu hình.
  • Ví dụ:
    "env": {
      "CHROMADB_PORT": "8321",
      "OLLAMA_PORT": "11434",
      "MY_API_KEY": "${MY_API_KEY}"
    }
    
  • Đảm bảo các key nhạy cảm không bị hardcode mà tham chiếu từ môi trường hệ điều hành.

Cách sử dụng MCP này trong Flow

Sử dụng MCP trong FlowHunt

Để tích hợp máy chủ MCP vào quy trình FlowHunt, hãy thêm thành phần MCP vào flow và kết nối với agent AI của bạn:

FlowHunt MCP flow

Nhấp vào thành phần MCP để mở bảng cấu hình. Trong phần cấu hình MCP hệ thống, chèn thông tin máy chủ MCP của bạn sử dụng định dạng JSON sau:

{
  "mcp-rag-local": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

Sau khi cấu hình, agent AI có thể sử dụng MCP này như một công cụ với đầy đủ chức năng. Hãy nhớ thay “mcp-rag-local” thành tên thực tế của MCP server bạn sử dụng và thay URL bằng URL máy chủ MCP của bạn.


Tổng quan

MụcCó sẵnChi tiết/Ghi chú
Tổng quan
Danh sách PromptKhông có prompt/template được ghi nhận
Danh sách Tài nguyênKhông có tài nguyên được ghi nhận
Danh sách Công cụmemorize_text, memorize_multiple_texts, v.v.
Bảo mật API Keyqua env trong cấu hình, ví dụ minh họa
Hỗ trợ Sampling (ít quan trọng khi đánh giá)Không đề cập

Đánh giá của chúng tôi

MCP này đơn giản, tập trung vào bộ nhớ ngữ nghĩa, nhưng thiếu các tính năng nâng cao như template prompt, tài nguyên rõ ràng, hoặc hỗ trợ sampling/roots. Bộ công cụ và hướng dẫn thiết lập rõ ràng. Phù hợp nhất cho các quy trình RAG/tri thức cục bộ đơn giản.

Điểm MCP

Có LICENSE✅ (MIT)
Có ít nhất một công cụ
Số Forks1
Số Stars5

Câu hỏi thường gặp

Máy chủ mcp-rag-local MCP là gì?

Đây là máy chủ MCP cục bộ cung cấp cho agent AI khả năng lưu trữ và truy xuất văn bản, tài liệu và PDF theo ý nghĩa ngữ nghĩa. Sử dụng Ollama và ChromaDB, nó giúp quản lý tri thức, bộ nhớ theo ngữ cảnh và tìm kiếm ngữ nghĩa cho ứng dụng của bạn.

mcp-rag-local cung cấp những công cụ gì?

Nó cung cấp các công cụ để lưu trữ một hoặc nhiều đoạn văn bản, nhập file PDF và truy xuất các văn bản tương tự thông qua tìm kiếm ngữ nghĩa. Điều này hỗ trợ xây dựng cơ sở tri thức cá nhân, tóm tắt tài liệu và bộ nhớ hội thoại cho chatbot.

Làm sao để thiết lập mcp-rag-local?

Cài đặt uv và Docker, clone repo, khởi động Ollama và ChromaDB, cấu hình máy chủ MCP trong file cấu hình của client với các port chỉ định. Biến môi trường được sử dụng để cấu hình an toàn.

Các trường hợp sử dụng chính là gì?

Các trường hợp sử dụng bao gồm xây dựng cơ sở tri thức ngữ nghĩa, tóm tắt tài liệu/PDF, nâng cao bộ nhớ chatbot, tìm kiếm ngữ nghĩa, và khám phá dữ liệu nghiên cứu.

Làm sao để bảo mật API key hoặc port?

Luôn sử dụng biến môi trường trong phần env của cấu hình để tránh ghi cứng thông tin nhạy cảm, đảm bảo bảo mật và tuân thủ thực hành tốt nhất.

Dùng thử mcp-rag-local cùng FlowHunt

Tăng tốc quy trình AI của bạn với bộ nhớ ngữ nghĩa và tìm kiếm tài liệu cục bộ bằng mcp-rag-local. Thiết lập chỉ trong vài phút và thay đổi cách các agent ghi nhớ, suy luận tri thức.

Tìm hiểu thêm

mcp-local-rag Máy chủ MCP
mcp-local-rag Máy chủ MCP

mcp-local-rag Máy chủ MCP

Máy chủ MCP mcp-local-rag cung cấp tìm kiếm web Retrieval-Augmented Generation (RAG) tại chỗ, bảo vệ quyền riêng tư cho LLMs. Nó cho phép trợ lý AI truy cập, nh...

5 phút đọc
MCP RAG +5
Ragie MCP Server
Ragie MCP Server

Ragie MCP Server

Máy chủ Ragie MCP cho phép trợ lý AI thực hiện tìm kiếm ngữ nghĩa và truy xuất thông tin liên quan từ các cơ sở tri thức Ragie, nâng cao quy trình phát triển vớ...

5 phút đọc
AI MCP Server +4
Rememberizer MCP Server
Rememberizer MCP Server

Rememberizer MCP Server

Rememberizer MCP Server là cầu nối giữa trợ lý AI và quản lý tri thức, cho phép tìm kiếm ngữ nghĩa, truy xuất tài liệu thống nhất và hợp tác nhóm trên Slack, Gm...

6 phút đọc
AI Knowledge Management +4