
多集群 MCP 服务器
多集群 MCP 服务器赋能 GenAI 系统和开发者工具,通过模型上下文协议(MCP)实现对多个 Kubernetes 集群的资源管理、监控和编排,助力智能自动化与高效 DevOps 流程。...

FlowHunt 的多模型顾问 MCP 服务器让你的 AI 代理能够同时咨询多个 Ollama 模型,融合它们的输出,获得更全面的答案和更高级的协作决策。
FlowHunt在您的内部系统和AI工具之间提供额外的安全层,让您能够精细控制从MCP服务器可访问哪些工具。托管在我们基础设施中的MCP服务器可以与FlowHunt的聊天机器人以及ChatGPT、Claude和各种AI编辑器等热门AI平台无缝集成。
多模型顾问 MCP 服务器是一款模型上下文协议(MCP)服务器,旨在连接 AI 助手与多个本地 Ollama 模型,使其能够同时查询多个模型并整合它们的回复。这种被称为“顾问委员会”的方式,让像 Claude 这样的 AI 系统可以综合不同模型的多元观点,从而为用户问题提供更全面、更细致的答案。服务器支持为每个模型分配不同的角色或人设、自定义系统提示,并可与 Claude for Desktop 等环境无缝集成。它通过聚合模型观点、支持高级决策并提供来自多源 AI 的丰富上下文信息,极大提升了开发工作流效率。
server.py 或类似文件提供工具清单,README 或文件树中也未明确说明工具接口。mcpServers 部分加入以下 JSON 片段:{
"multi-ai-advisor-mcp": {
"command": "npx",
"args": ["@YuChenSSR/multi-ai-advisor-mcp@latest"],
"env": {
"OLLAMA_HOST": "http://localhost:11434"
}
}
}
npx -y @smithery/cli install @YuChenSSR/multi-ai-advisor-mcp --client claude
{
"multi-ai-advisor-mcp": {
"command": "npx",
"args": ["@YuChenSSR/multi-ai-advisor-mcp@latest"],
"env": {
"OLLAMA_HOST": "http://localhost:11434"
}
}
}
{
"multi-ai-advisor-mcp": {
"command": "npx",
"args": ["@YuChenSSR/multi-ai-advisor-mcp@latest"],
"env": {
"OLLAMA_HOST": "http://localhost:11434"
}
}
}
{
"multi-ai-advisor-mcp": {
"command": "npx",
"args": ["@YuChenSSR/multi-ai-advisor-mcp@latest"],
"env": {
"OLLAMA_HOST": "http://localhost:11434"
}
}
}
密钥安全
如需保护 API 密钥或敏感环境变量,请在配置中使用 env 字段:
{
"multi-ai-advisor-mcp": {
"command": "npx",
"args": ["@YuChenSSR/multi-ai-advisor-mcp@latest"],
"env": {
"OLLAMA_HOST": "http://localhost:11434",
"MY_SECRET_API_KEY": "${MY_SECRET_API_KEY}"
}
}
}
请在操作系统或 CI/CD 流水线中设定环境变量,避免明文写入密钥。
在 FlowHunt 中集成 MCP
要将 MCP 服务器集成到 FlowHunt 的工作流中,请先在你的流程中添加 MCP 组件,并将其连接到你的 AI 代理上:

点击 MCP 组件以打开配置面板。在系统 MCP 配置区,按如下 JSON 格式插入你的 MCP 服务器详情:
{
"multi-ai-advisor-mcp": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
配置完成后,AI 代理即可作为工具使用该 MCP,享受其所有功能和能力。请记得将 “multi-ai-advisor-mcp” 替换为你的 MCP 服务器实际名称,并将 URL 替换为你自己的 MCP 服务器地址。
| 部分 | 可用性 | 备注说明 |
|---|---|---|
| 概览 | ✅ | README.md、主页 |
| 提示词清单 | ⛔ | 未找到提示词模板 |
| 资源清单 | ⛔ | 未明确列出资源 |
| 工具清单 | ⛔ | 代码或文档中未找到工具清单 |
| 密钥安全 | ✅ | .env & JSON 配置示例 |
| 采样支持(评价不重要) | ⛔ | 未提及 |
多模型顾问 MCP 在搭建方面文档详尽,独特的“顾问委员会”方式也很有价值,但在提示词、资源和工具的透明度方面略有欠缺。对于多模型决策工作流来说价值极高,但若能提供更多技术细节会更好。综合表格评价,我给这个 MCP 打 6/10,基础内容齐全且应用场景吸引人,但技术文档还有提升空间。
| 是否有 LICENSE | ✅ (MIT) |
|---|---|
| 至少有一个工具 | ⛔ |
| Fork 数量 | 15 |
| Star 数量 | 49 |

多集群 MCP 服务器赋能 GenAI 系统和开发者工具,通过模型上下文协议(MCP)实现对多个 Kubernetes 集群的资源管理、监控和编排,助力智能自动化与高效 DevOps 流程。...

MongoDB MCP 服务器实现了 AI 助手与 MongoDB 数据库的无缝集成,可通过标准化的 Model Context Protocol (MCP) 实现数据库的直接管理、查询自动化和数据检索。...

OpenAPI MCP 服务器让 AI 助手能够探索和理解 OpenAPI 规范,为开发者和大模型提供详细的 API 上下文、摘要和端点信息,无需直接执行端点。...
Cookie 同意
我们使用 cookie 来增强您的浏览体验并分析我们的流量。 See our privacy policy.