
mcp-rag-local MCP 服务器
mcp-rag-local MCP 服务器为 AI 助手赋能语义记忆,实现基于含义而非仅仅关键词的文本片段存储与检索。它利用 Ollama 生成嵌入,采用 ChromaDB 进行向量检索,支持本地工作流中高级知识管理与上下文回忆。...
一款简单、本地且保护隐私的网页搜索 MCP 服务器,为 FlowHunt 及其它 AI 工作流提供实时数据访问和检索增强生成能力。
mcp-local-rag MCP 服务器是一种运行于本地、无需外部 API 的“原始”检索增强生成(RAG)类网页搜索模型上下文协议(MCP)服务器。其主要功能是将 AI 助手与网络作为数据源连接,允许大语言模型(LLM)执行网页搜索、获取并嵌入搜索结果,以及提取相关内容——所有过程均在保护隐私的本地环境中完成。服务器通过将用户查询提交给搜索引擎(DuckDuckGo),获取多条结果,利用 Google MediaPipe Text Embedder 按相似性排序,并从网页中提取相关上下文来协调这一流程。这使开发者和 AI 客户端能够获取最新网络信息,提升如科研、内容创作、问答等工作流,无需依赖专有网页 API。
仓库或文档中未提及具体的提示模板。
在现有仓库内容中未描述明确的 MCP“资源”。
在可用文件或文档中未直接列出详细的工具定义。
以下为 mcp-local-rag MCP 服务器集成到各类 MCP 客户端的通用安装说明。请根据实际客户端需求适当调整配置 JSON。
mcpServers
对象中添加以下 JSON:{
"mcpServers": {
"mcp-local-rag": {
"command": "uvx",
"args": [
"--python=3.10",
"--from",
"git+https://github.com/nkapila6/mcp-local-rag",
"mcp-local-rag"
]
}
}
}
{
"mcpServers": {
"mcp-local-rag": {
"command": "uvx",
"args": [
"--python=3.10",
"--from",
"git+https://github.com/nkapila6/mcp-local-rag",
"mcp-local-rag"
]
}
}
}
{
"mcpServers": {
"mcp-local-rag": {
"command": "docker",
"args": [
"run",
"--rm",
"-i",
"--init",
"-e",
"DOCKER_CONTAINER=true",
"ghcr.io/nkapila6/mcp-local-rag:latest"
]
}
}
}
mcp-local-rag 不需要外部 API 密钥,但如需设置环境变量(用于 Docker 或其他场景),可在配置中使用 env
对象:
{
"mcpServers": {
"mcp-local-rag": {
"command": "docker",
"args": [
"run",
"--rm",
"-i",
"--init",
"-e",
"DOCKER_CONTAINER=true",
"ghcr.io/nkapila6/mcp-local-rag:latest"
],
"env": {
"EXAMPLE_ENV_VAR": "value"
},
"inputs": {}
}
}
}
FlowHunt 中的 MCP 使用
要在 FlowHunt 工作流中集成 MCP 服务器,请先将 MCP 组件添加到您的流程中,并与 AI agent 连接:
点击 MCP 组件打开配置面板。在系统 MCP 配置部分,按如下 JSON 格式填写 MCP 服务器信息:
{
"mcp-local-rag": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
配置完成后,AI agent 即可将该 MCP 作为工具,访问其全部功能。请记得将 “mcp-local-rag” 替换为实际 MCP 服务器名称,并将 URL 替换为您自己的 MCP 地址。
部分 | 可用性 | 说明/备注 |
---|---|---|
概览 | ✅ | |
提示模板列表 | ⛔ | 未找到 |
资源列表 | ⛔ | 未找到 |
工具列表 | ⛔ | 未找到 |
安全设置 API 密钥 | ✅ | 已显示 env 示例 |
采样支持(评测时不重要) | ⛔ | 未提及 |
总体来看,mcp-local-rag 是一款简洁、保护隐私的网页搜索 MCP 服务器,但在提示/模板、资源与工具说明文档方面较为缺乏细节。易于在主流客户端部署和使用,但更适合于简单的网页 RAG 场景。
是否有 LICENSE | ✅ (MIT) |
---|---|
至少有一个工具 | ⛔ |
分叉数量 | 12 |
星标数量 | 48 |
它是一款本地、保护隐私的网页搜索 MCP 服务器,用于检索增强生成(RAG)。该服务器将 LLM 与网络连接,获取并嵌入搜索结果,并在无需外部 API 或云端依赖的情况下提取相关内容。
使用场景包括为 LLM 实现实时网页搜索、内容摘要、检索增强生成、开发者效率提升(如搜索文档)、以及教育(获取新学习资料)。
无需外部 API 密钥。它在本地运行,并使用 DuckDuckGo 进行搜索,因此您的查询保持私密,也无需付费 API 访问。
将 MCP 组件添加到您的 FlowHunt 流程中,打开其配置界面,按照推荐的 JSON 格式填写 MCP 服务器信息。具体设置请参考上文说明。
文档中未明确定义提示模板、资源或工具。该服务器设计为简洁的网页搜索和上下文检索用途。
mcp-rag-local MCP 服务器为 AI 助手赋能语义记忆,实现基于含义而非仅仅关键词的文本片段存储与检索。它利用 Ollama 生成嵌入,采用 ChromaDB 进行向量检索,支持本地工作流中高级知识管理与上下文回忆。...
RAG网页浏览器MCP服务器为AI助手和LLM提供实时网页搜索与内容提取功能,使得检索增强生成(RAG)、摘要和实时研究能够在FlowHunt工作流中实现。...
Ragie MCP 服务器使 AI 助手能够对 Ragie 知识库进行语义搜索和检索相关信息,通过上下文知识集成增强开发流程。