
mcp-local-rag MCP 服务器
mcp-local-rag MCP 服务器实现了本地、保护隐私的检索增强生成(RAG)网页搜索,为大语言模型(LLM)提供数据检索能力。它允许 AI 助手在无需外部 API 的情况下访问、嵌入并提取网页中的最新信息,从而提升科研、内容创作和问答等工作流程。...
一款基于 ChromaDB 和 Ollama 构建的 FlowHunt 本地语义记忆 MCP 服务器。让 AI 代理通过含义记忆与检索文本、文档及 PDF,助力强大的 RAG 与知识工作流。
mcp-rag-local MCP 服务器设计为一款记忆服务器,使 AI 助手能够基于语义含义而非仅仅关键词存储和检索文本片段。它依赖 Ollama 生成文本嵌入,利用 ChromaDB 进行向量存储与相似度检索,实现针对特定查询的无缝存储(“记忆”)与相关文本检索。这为知识管理、上下文回忆和语义搜索等 AI 驱动工作流赋能。开发者可与服务器交互,存储单条、多条文本或 PDF 文件内容,随后检索与上下文最相关的信息,显著提升应用的生产力与上下文智能。
memorize_text
允许服务器存储一条文本,便于日后按语义检索。
memorize_multiple_texts
支持批量存储多条文本,方便知识批量导入。
memorize_pdf_file
每次读取并提取 PDF 文件最多 20 页,将内容分块并记忆,便于语义检索。
retrieve_similar_texts
基于用户查询,按语义相似度检索最相关的已存文本片段。
(工具名称根据文档用法推断,实际代码中可能略有不同。)
个人知识库
开发者和用户可通过记忆文章、笔记或论文,构建持久且可检索的语义知识库。
文档与 PDF 摘要
记忆整个 PDF 文档后,用户可随时查询相关章节或摘要,提升研究与复习效率。
聊天机器人会话记忆
让 AI 助手/聊天机器人具备长期、上下文感知的记忆能力,生成更连贯、更相关的回复。
语义搜索引擎
在应用中实现语义搜索功能,让用户基于含义而非关键词找到所需信息。
科研与数据探索
存储和检索技术文档、代码片段或学术资料,实现含义驱动的高效查找。
git clone <repository-url>
cd mcp-rag-local
docker-compose up
启动 ChromaDB 和 Ollama。docker exec -it ollama ollama pull all-minilm:l6-v2
mcpServers
):"mcp-rag-local": {
"command": "uv",
"args": [
"--directory",
"path\\to\\mcp-rag-local",
"run",
"main.py"
],
"env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434"
}
}
"mcpServers": {
"mcp-rag-local": {
"command": "uv",
"args": [
"--directory",
"path\\to\\mcp-rag-local",
"run",
"main.py"
],
"env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434"
}
}
}
"mcpServers": {
"mcp-rag-local": {
"command": "uv",
"args": [
"--directory",
"path\\to\\mcp-rag-local",
"run",
"main.py"
],
"env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434"
}
}
}
"mcpServers": {
"mcp-rag-local": {
"command": "uv",
"args": [
"--directory",
"path\\to\\mcp-rag-local",
"run",
"main.py"
],
"env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434"
}
}
}
env
部分使用环境变量。"env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434",
"MY_API_KEY": "${MY_API_KEY}"
}
在 FlowHunt 中集成 MCP 服务器,请先在你的流程中添加 MCP 组件,并将其与 AI 代理连接:
点击 MCP 组件打开配置面板。在系统 MCP 配置区,使用如下 JSON 格式填写你的 MCP 服务器信息:
{
"mcp-rag-local": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
配置完成后,AI 代理即可作为工具调用此 MCP 的全部功能。请记得将 “mcp-rag-local” 替换为你的实际 MCP 服务器名,并填写你自己的 MCP 服务器 URL。
模块/章节 | 可用性 | 备注 |
---|---|---|
概览 | ✅ | |
提示词列表 | ⛔ | 未记录提示/模板 |
资源列表 | ⛔ | 未记录资源 |
工具列表 | ✅ | memorize_text, memorize_multiple_texts 等 |
API 密钥安全 | ✅ | 通过配置 env,示例已展示 |
采样支持(评价时较次要) | ⛔ | 未提及 |
该 MCP 简洁专注于语义记忆,但缺乏高级特性如提示模板、显式资源或采样/roots 支持。工具与安装说明清晰,非常适合简单的 RAG/本地知识工作流。
是否有 LICENSE | ✅ (MIT) |
---|---|
至少有一个工具 | ✅ |
Fork 数量 | 1 |
Star 数量 | 5 |
它是一款本地 MCP 服务器,让 AI 代理能够基于语义存储和检索文本、文档和 PDF。通过 Ollama 和 ChromaDB 驱动,实现应用级知识管理、上下文记忆与语义搜索。
它支持单条/多条文本存储、PDF 文件导入以及基于语义的相似文本检索。可用于搭建个人知识库、文档摘要、聊天机器人会话记忆等工作流。
安装 uv 和 Docker,克隆仓库,启动 Ollama 和 ChromaDB,并在客户端配置文件中添加 MCP 服务器配置(含端口号)。环境变量用于安全配置。
包括构建语义知识库、文档/PDF 摘要、增强聊天机器人记忆、语义搜索及科研数据探索等。
请始终在配置文件 env 部分使用环境变量,避免硬编码敏感信息,确保安全与最佳实践。
mcp-local-rag MCP 服务器实现了本地、保护隐私的检索增强生成(RAG)网页搜索,为大语言模型(LLM)提供数据检索能力。它允许 AI 助手在无需外部 API 的情况下访问、嵌入并提取网页中的最新信息,从而提升科研、内容创作和问答等工作流程。...
Rememberizer MCP 服务器连接 AI 助手与知识管理,实现语义搜索、统一文档检索和团队协作,支持 Slack、Gmail、Dropbox、Google Drive 等。通过强大的文档与集成工具,简化您的 AI 工作流。...
Ragie MCP 服务器使 AI 助手能够对 Ragie 知识库进行语义搜索和检索相关信息,通过上下文知识集成增强开发流程。