mcp-rag-local MCP 服务器

mcp-rag-local MCP 服务器

一款基于 ChromaDB 和 Ollama 构建的 FlowHunt 本地语义记忆 MCP 服务器。让 AI 代理通过含义记忆与检索文本、文档及 PDF,助力强大的 RAG 与知识工作流。

“mcp-rag-local” MCP 服务器的作用是什么?

mcp-rag-local MCP 服务器设计为一款记忆服务器,使 AI 助手能够基于语义含义而非仅仅关键词存储和检索文本片段。它依赖 Ollama 生成文本嵌入,利用 ChromaDB 进行向量存储与相似度检索,实现针对特定查询的无缝存储(“记忆”)与相关文本检索。这为知识管理、上下文回忆和语义搜索等 AI 驱动工作流赋能。开发者可与服务器交互,存储单条、多条文本或 PDF 文件内容,随后检索与上下文最相关的信息,显著提升应用的生产力与上下文智能。

提示词列表

  • 仓库或文档中未明确给出提示模板。

资源列表

  • 仓库或 README 未记录任何显式 MCP 资源。

工具列表

  • memorize_text
    允许服务器存储一条文本,便于日后按语义检索。

  • memorize_multiple_texts
    支持批量存储多条文本,方便知识批量导入。

  • memorize_pdf_file
    每次读取并提取 PDF 文件最多 20 页,将内容分块并记忆,便于语义检索。

  • retrieve_similar_texts
    基于用户查询,按语义相似度检索最相关的已存文本片段。

(工具名称根据文档用法推断,实际代码中可能略有不同。)

此 MCP 服务器的应用场景

  • 个人知识库
    开发者和用户可通过记忆文章、笔记或论文,构建持久且可检索的语义知识库。

  • 文档与 PDF 摘要
    记忆整个 PDF 文档后,用户可随时查询相关章节或摘要,提升研究与复习效率。

  • 聊天机器人会话记忆
    让 AI 助手/聊天机器人具备长期、上下文感知的记忆能力,生成更连贯、更相关的回复。

  • 语义搜索引擎
    在应用中实现语义搜索功能,让用户基于含义而非关键词找到所需信息。

  • 科研与数据探索
    存储和检索技术文档、代码片段或学术资料,实现含义驱动的高效查找。

部署方法

Windsurf

  1. 前置条件:
    • 安装 uv 作为 Python 包管理工具。
    • 确保 Docker 已安装并运行。
  2. 克隆与安装:
    • 克隆仓库:
      git clone <repository-url>
      cd mcp-rag-local
    • 使用 uv 安装依赖。
  3. 启动服务:
    • 运行 docker-compose up 启动 ChromaDB 和 Ollama。
    • 拉取嵌入模型:
      docker exec -it ollama ollama pull all-minilm:l6-v2
  4. 配置 MCP 服务器:
    • 在 Windsurf 的 MCP 服务器配置中添加(如 mcpServers):
      "mcp-rag-local": {
        "command": "uv",
        "args": [
          "--directory",
          "path\\to\\mcp-rag-local",
          "run",
          "main.py"
        ],
        "env": {
          "CHROMADB_PORT": "8321",
          "OLLAMA_PORT": "11434"
        }
      }
      
  5. 保存与重启:
    • 保存配置并重启 Windsurf。
  6. 验证安装:
    • 检查服务器是否运行并可访问。

Claude

  1. 完成上述第 1–3 步(前置条件、克隆/安装、启动服务)。
  2. 在 Claude MCP 配置中添加如下内容:
    "mcpServers": {
      "mcp-rag-local": {
        "command": "uv",
        "args": [
          "--directory",
          "path\\to\\mcp-rag-local",
          "run",
          "main.py"
        ],
        "env": {
          "CHROMADB_PORT": "8321",
          "OLLAMA_PORT": "11434"
        }
      }
    }
    
  3. 保存并重启 Claude。
  4. 确认服务器已被识别并运行。

Cursor

  1. 完成第 1–3 步(同上)。
  2. 在 Cursor 配置中添加:
    "mcpServers": {
      "mcp-rag-local": {
        "command": "uv",
        "args": [
          "--directory",
          "path\\to\\mcp-rag-local",
          "run",
          "main.py"
        ],
        "env": {
          "CHROMADB_PORT": "8321",
          "OLLAMA_PORT": "11434"
        }
      }
    }
    
  3. 保存并重启 Cursor。
  4. 检查 MCP 服务器是否工作正常。

Cline

  1. 重复第 1–3 步(前置条件、克隆/安装、启动服务)。
  2. 在 Cline 配置文件中加入:
    "mcpServers": {
      "mcp-rag-local": {
        "command": "uv",
        "args": [
          "--directory",
          "path\\to\\mcp-rag-local",
          "run",
          "main.py"
        ],
        "env": {
          "CHROMADB_PORT": "8321",
          "OLLAMA_PORT": "11434"
        }
      }
    }
    
  3. 保存、重启 Cline,并验证部署情况。

API 密钥安全建议

  • 在配置的 env 部分使用环境变量。
  • 示例:
    "env": {
      "CHROMADB_PORT": "8321",
      "OLLAMA_PORT": "11434",
      "MY_API_KEY": "${MY_API_KEY}"
    }
    
  • 请确保敏感密钥不被硬编码,而是通过环境变量引用。

在 FlowHunt 流程中使用 MCP

在 FlowHunt 中集成 MCP 服务器,请先在你的流程中添加 MCP 组件,并将其与 AI 代理连接:

FlowHunt MCP flow

点击 MCP 组件打开配置面板。在系统 MCP 配置区,使用如下 JSON 格式填写你的 MCP 服务器信息:

{
  "mcp-rag-local": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

配置完成后,AI 代理即可作为工具调用此 MCP 的全部功能。请记得将 “mcp-rag-local” 替换为你的实际 MCP 服务器名,并填写你自己的 MCP 服务器 URL。


总览

模块/章节可用性备注
概览
提示词列表未记录提示/模板
资源列表未记录资源
工具列表memorize_text, memorize_multiple_texts 等
API 密钥安全通过配置 env,示例已展示
采样支持(评价时较次要)未提及

我们的看法

该 MCP 简洁专注于语义记忆,但缺乏高级特性如提示模板、显式资源或采样/roots 支持。工具与安装说明清晰,非常适合简单的 RAG/本地知识工作流。

MCP 评分

是否有 LICENSE✅ (MIT)
至少有一个工具
Fork 数量1
Star 数量5

常见问题

什么是 mcp-rag-local MCP 服务器?

它是一款本地 MCP 服务器,让 AI 代理能够基于语义存储和检索文本、文档和 PDF。通过 Ollama 和 ChromaDB 驱动,实现应用级知识管理、上下文记忆与语义搜索。

mcp-rag-local 提供了哪些工具?

它支持单条/多条文本存储、PDF 文件导入以及基于语义的相似文本检索。可用于搭建个人知识库、文档摘要、聊天机器人会话记忆等工作流。

如何部署 mcp-rag-local?

安装 uv 和 Docker,克隆仓库,启动 Ollama 和 ChromaDB,并在客户端配置文件中添加 MCP 服务器配置(含端口号)。环境变量用于安全配置。

主要适用场景有哪些?

包括构建语义知识库、文档/PDF 摘要、增强聊天机器人记忆、语义搜索及科研数据探索等。

如何保障 API 密钥或端口安全?

请始终在配置文件 env 部分使用环境变量,避免硬编码敏感信息,确保安全与最佳实践。

在 FlowHunt 中试用 mcp-rag-local

通过 mcp-rag-local,结合语义记忆与本地文档检索,提升你的 AI 工作流。几分钟内即可搭建,彻底革新代理的知识回忆与推理方式。

了解更多

mcp-local-rag MCP 服务器
mcp-local-rag MCP 服务器

mcp-local-rag MCP 服务器

mcp-local-rag MCP 服务器实现了本地、保护隐私的检索增强生成(RAG)网页搜索,为大语言模型(LLM)提供数据检索能力。它允许 AI 助手在无需外部 API 的情况下访问、嵌入并提取网页中的最新信息,从而提升科研、内容创作和问答等工作流程。...

2 分钟阅读
MCP RAG +5
Rememberizer MCP 服务器
Rememberizer MCP 服务器

Rememberizer MCP 服务器

Rememberizer MCP 服务器连接 AI 助手与知识管理,实现语义搜索、统一文档检索和团队协作,支持 Slack、Gmail、Dropbox、Google Drive 等。通过强大的文档与集成工具,简化您的 AI 工作流。...

2 分钟阅读
AI Knowledge Management +4
Ragie MCP 服务器
Ragie MCP 服务器

Ragie MCP 服务器

Ragie MCP 服务器使 AI 助手能够对 Ragie 知识库进行语义搜索和检索相关信息,通过上下文知识集成增强开发流程。

2 分钟阅读
AI MCP Server +4