
mcp-local-rag MCP 服务器
mcp-local-rag MCP 服务器实现了本地、保护隐私的检索增强生成(RAG)网页搜索,为大语言模型(LLM)提供数据检索能力。它允许 AI 助手在无需外部 API 的情况下访问、嵌入并提取网页中的最新信息,从而提升科研、内容创作和问答等工作流程。...
FlowHunt在您的内部系统和AI工具之间提供额外的安全层,让您能够精细控制从MCP服务器可访问哪些工具。托管在我们基础设施中的MCP服务器可以与FlowHunt的聊天机器人以及ChatGPT、Claude和各种AI编辑器等热门AI平台无缝集成。
mcp-rag-local MCP 服务器设计为一款记忆服务器,使 AI 助手能够基于语义含义而非仅仅关键词存储和检索文本片段。它依赖 Ollama 生成文本嵌入,利用 ChromaDB 进行向量存储与相似度检索,实现针对特定查询的无缝存储(“记忆”)与相关文本检索。这为知识管理、上下文回忆和语义搜索等 AI 驱动工作流赋能。开发者可与服务器交互,存储单条、多条文本或 PDF 文件内容,随后检索与上下文最相关的信息,显著提升应用的生产力与上下文智能。
memorize_text
允许服务器存储一条文本,便于日后按语义检索。
memorize_multiple_texts
支持批量存储多条文本,方便知识批量导入。
memorize_pdf_file
每次读取并提取 PDF 文件最多 20 页,将内容分块并记忆,便于语义检索。
retrieve_similar_texts
基于用户查询,按语义相似度检索最相关的已存文本片段。
(工具名称根据文档用法推断,实际代码中可能略有不同。)
个人知识库
开发者和用户可通过记忆文章、笔记或论文,构建持久且可检索的语义知识库。
文档与 PDF 摘要
记忆整个 PDF 文档后,用户可随时查询相关章节或摘要,提升研究与复习效率。
聊天机器人会话记忆
让 AI 助手/聊天机器人具备长期、上下文感知的记忆能力,生成更连贯、更相关的回复。
语义搜索引擎
在应用中实现语义搜索功能,让用户基于含义而非关键词找到所需信息。
科研与数据探索
存储和检索技术文档、代码片段或学术资料,实现含义驱动的高效查找。
git clone <repository-url>cd mcp-rag-localdocker-compose up 启动 ChromaDB 和 Ollama。docker exec -it ollama ollama pull all-minilm:l6-v2mcpServers):"mcp-rag-local": {
"command": "uv",
"args": [
"--directory",
"path\\to\\mcp-rag-local",
"run",
"main.py"
],
"env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434"
}
}
"mcpServers": {
"mcp-rag-local": {
"command": "uv",
"args": [
"--directory",
"path\\to\\mcp-rag-local",
"run",
"main.py"
],
"env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434"
}
}
}
"mcpServers": {
"mcp-rag-local": {
"command": "uv",
"args": [
"--directory",
"path\\to\\mcp-rag-local",
"run",
"main.py"
],
"env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434"
}
}
}
"mcpServers": {
"mcp-rag-local": {
"command": "uv",
"args": [
"--directory",
"path\\to\\mcp-rag-local",
"run",
"main.py"
],
"env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434"
}
}
}
env 部分使用环境变量。"env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434",
"MY_API_KEY": "${MY_API_KEY}"
}
在 FlowHunt 中集成 MCP 服务器,请先在你的流程中添加 MCP 组件,并将其与 AI 代理连接:

点击 MCP 组件打开配置面板。在系统 MCP 配置区,使用如下 JSON 格式填写你的 MCP 服务器信息:
{
"mcp-rag-local": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
配置完成后,AI 代理即可作为工具调用此 MCP 的全部功能。请记得将 “mcp-rag-local” 替换为你的实际 MCP 服务器名,并填写你自己的 MCP 服务器 URL。
| 模块/章节 | 可用性 | 备注 |
|---|---|---|
| 概览 | ✅ | |
| 提示词列表 | ⛔ | 未记录提示/模板 |
| 资源列表 | ⛔ | 未记录资源 |
| 工具列表 | ✅ | memorize_text, memorize_multiple_texts 等 |
| API 密钥安全 | ✅ | 通过配置 env,示例已展示 |
| 采样支持(评价时较次要) | ⛔ | 未提及 |
该 MCP 简洁专注于语义记忆,但缺乏高级特性如提示模板、显式资源或采样/roots 支持。工具与安装说明清晰,非常适合简单的 RAG/本地知识工作流。
| 是否有 LICENSE | ✅ (MIT) |
|---|---|
| 至少有一个工具 | ✅ |
| Fork 数量 | 1 |
| Star 数量 | 5 |
它是一款本地 MCP 服务器,让 AI 代理能够基于语义存储和检索文本、文档和 PDF。通过 Ollama 和 ChromaDB 驱动,实现应用级知识管理、上下文记忆与语义搜索。
它支持单条/多条文本存储、PDF 文件导入以及基于语义的相似文本检索。可用于搭建个人知识库、文档摘要、聊天机器人会话记忆等工作流。
安装 uv 和 Docker,克隆仓库,启动 Ollama 和 ChromaDB,并在客户端配置文件中添加 MCP 服务器配置(含端口号)。环境变量用于安全配置。
包括构建语义知识库、文档/PDF 摘要、增强聊天机器人记忆、语义搜索及科研数据探索等。
请始终在配置文件 env 部分使用环境变量,避免硬编码敏感信息,确保安全与最佳实践。

mcp-local-rag MCP 服务器实现了本地、保护隐私的检索增强生成(RAG)网页搜索,为大语言模型(LLM)提供数据检索能力。它允许 AI 助手在无需外部 API 的情况下访问、嵌入并提取网页中的最新信息,从而提升科研、内容创作和问答等工作流程。...

Rememberizer MCP 服务器连接 AI 助手与知识管理,实现语义搜索、统一文档检索和团队协作,支持 Slack、Gmail、Dropbox、Google Drive 等。通过强大的文档与集成工具,简化您的 AI 工作流。...

Ragie MCP 服务器使 AI 助手能够对 Ragie 知识库进行语义搜索和检索相关信息,通过上下文知识集成增强开发流程。
Cookie 同意
我们使用 cookie 来增强您的浏览体验并分析我们的流量。 See our privacy policy.