
ModelContextProtocol(MCP)服务器集成
ModelContextProtocol(MCP)服务器作为AI代理与外部数据源、API和服务之间的桥梁,使FlowHunt用户能够构建具备上下文感知、自动化工作流的AI助手。本指南涵盖了安全集成的设置、配置与最佳实践。...
FlowHunt 的多模型顾问 MCP 服务器让你的 AI 代理能够同时咨询多个 Ollama 模型,融合它们的输出,获得更全面的答案和更高级的协作决策。
多模型顾问 MCP 服务器是一款模型上下文协议(MCP)服务器,旨在连接 AI 助手与多个本地 Ollama 模型,使其能够同时查询多个模型并整合它们的回复。这种被称为“顾问委员会”的方式,让像 Claude 这样的 AI 系统可以综合不同模型的多元观点,从而为用户问题提供更全面、更细致的答案。服务器支持为每个模型分配不同的角色或人设、自定义系统提示,并可与 Claude for Desktop 等环境无缝集成。它通过聚合模型观点、支持高级决策并提供来自多源 AI 的丰富上下文信息,极大提升了开发工作流效率。
server.py
或类似文件提供工具清单,README 或文件树中也未明确说明工具接口。mcpServers
部分加入以下 JSON 片段:{
"multi-ai-advisor-mcp": {
"command": "npx",
"args": ["@YuChenSSR/multi-ai-advisor-mcp@latest"],
"env": {
"OLLAMA_HOST": "http://localhost:11434"
}
}
}
npx -y @smithery/cli install @YuChenSSR/multi-ai-advisor-mcp --client claude
{
"multi-ai-advisor-mcp": {
"command": "npx",
"args": ["@YuChenSSR/multi-ai-advisor-mcp@latest"],
"env": {
"OLLAMA_HOST": "http://localhost:11434"
}
}
}
{
"multi-ai-advisor-mcp": {
"command": "npx",
"args": ["@YuChenSSR/multi-ai-advisor-mcp@latest"],
"env": {
"OLLAMA_HOST": "http://localhost:11434"
}
}
}
{
"multi-ai-advisor-mcp": {
"command": "npx",
"args": ["@YuChenSSR/multi-ai-advisor-mcp@latest"],
"env": {
"OLLAMA_HOST": "http://localhost:11434"
}
}
}
密钥安全
如需保护 API 密钥或敏感环境变量,请在配置中使用 env
字段:
{
"multi-ai-advisor-mcp": {
"command": "npx",
"args": ["@YuChenSSR/multi-ai-advisor-mcp@latest"],
"env": {
"OLLAMA_HOST": "http://localhost:11434",
"MY_SECRET_API_KEY": "${MY_SECRET_API_KEY}"
}
}
}
请在操作系统或 CI/CD 流水线中设定环境变量,避免明文写入密钥。
在 FlowHunt 中集成 MCP
要将 MCP 服务器集成到 FlowHunt 的工作流中,请先在你的流程中添加 MCP 组件,并将其连接到你的 AI 代理上:
点击 MCP 组件以打开配置面板。在系统 MCP 配置区,按如下 JSON 格式插入你的 MCP 服务器详情:
{
"multi-ai-advisor-mcp": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
配置完成后,AI 代理即可作为工具使用该 MCP,享受其所有功能和能力。请记得将 “multi-ai-advisor-mcp” 替换为你的 MCP 服务器实际名称,并将 URL 替换为你自己的 MCP 服务器地址。
部分 | 可用性 | 备注说明 |
---|---|---|
概览 | ✅ | README.md、主页 |
提示词清单 | ⛔ | 未找到提示词模板 |
资源清单 | ⛔ | 未明确列出资源 |
工具清单 | ⛔ | 代码或文档中未找到工具清单 |
密钥安全 | ✅ | .env & JSON 配置示例 |
采样支持(评价不重要) | ⛔ | 未提及 |
多模型顾问 MCP 在搭建方面文档详尽,独特的“顾问委员会”方式也很有价值,但在提示词、资源和工具的透明度方面略有欠缺。对于多模型决策工作流来说价值极高,但若能提供更多技术细节会更好。综合表格评价,我给这个 MCP 打 6/10,基础内容齐全且应用场景吸引人,但技术文档还有提升空间。
是否有 LICENSE | ✅ (MIT) |
---|---|
至少有一个工具 | ⛔ |
Fork 数量 | 15 |
Star 数量 | 49 |
它是一款 MCP 服务器,可以让 AI 助手同时连接多个 Ollama 模型,将多个模型(“顾问委员会”)的答案组合起来,提供更全面、更细致的回复。
应用场景包括:聚合模型观点以实现更平衡的决策、基于角色的查询用于场景分析、协作式 AI 决策、以及借助多模型洞察优化开发者工作流。
你应在 MCP 配置中使用 'env' 字段存放密钥,并在操作系统或 CI/CD 环境中设置变量,避免将其硬编码在代码或配置文件中。
可以。你可以为每个 Ollama 模型分配不同的系统提示或角色,实现多专家视角的场景模拟。
在你的流程中添加 MCP 组件,然后通过系统 MCP 配置面板插入服务器详情。这样你的 AI 代理就能访问服务器的全部功能。
ModelContextProtocol(MCP)服务器作为AI代理与外部数据源、API和服务之间的桥梁,使FlowHunt用户能够构建具备上下文感知、自动化工作流的AI助手。本指南涵盖了安全集成的设置、配置与最佳实践。...
多集群 MCP 服务器赋能 GenAI 系统和开发者工具,通过模型上下文协议(MCP)实现对多个 Kubernetes 集群的资源管理、监控和编排,助力智能自动化与高效 DevOps 流程。...
MCP-Server-Creator 是一个元服务器,可以快速创建和配置新的模型上下文协议(MCP)服务器。通过动态代码生成、工具构建和资源管理,它简化了自定义 AI 连接与集成服务器的开发,帮助技术团队自动化工作流程并加速部署。...