多模型顾问 MCP 服务器

AI MCP Ollama Multi-Model

联系我们在FlowHunt托管您的MCP服务器

FlowHunt在您的内部系统和AI工具之间提供额外的安全层,让您能够精细控制从MCP服务器可访问哪些工具。托管在我们基础设施中的MCP服务器可以与FlowHunt的聊天机器人以及ChatGPT、Claude和各种AI编辑器等热门AI平台无缝集成。

“多模型顾问” MCP 服务器的作用是什么?

多模型顾问 MCP 服务器是一款模型上下文协议(MCP)服务器,旨在连接 AI 助手与多个本地 Ollama 模型,使其能够同时查询多个模型并整合它们的回复。这种被称为“顾问委员会”的方式,让像 Claude 这样的 AI 系统可以综合不同模型的多元观点,从而为用户问题提供更全面、更细致的答案。服务器支持为每个模型分配不同的角色或人设、自定义系统提示,并可与 Claude for Desktop 等环境无缝集成。它通过聚合模型观点、支持高级决策并提供来自多源 AI 的丰富上下文信息,极大提升了开发工作流效率。

提示词清单

  • ⛔ 仓库或 README 中未记录明确的提示词模板。
Logo

准备好发展您的业务了吗?

今天开始免费试用,几天内即可看到结果。

资源清单

  • ⛔ 仓库或文档中未列出具体的 MCP 资源。

工具清单

  • ⛔ 仓库中未在 server.py 或类似文件提供工具清单,README 或文件树中也未明确说明工具接口。

本 MCP 服务器的应用场景

  • 聚合模型观点:开发者可利用该服务器对同一问题从多种 Ollama 模型获得多角度答案,从而做出更均衡、更明智的决策。
  • 基于角色的查询:为每个模型分配不同的角色或人设,可模拟多专家视角进行情景分析或头脑风暴。
  • 系统模型总览:查看系统上所有可用的 Ollama 模型,用户可为特定需求选择最佳组合。
  • 协作式 AI 决策:“顾问委员会”方式有助于综合多模型的输出,适用于复杂问题解决或需达成共识的场景。
  • 工作流集成:与 Claude for Desktop 及其他兼容 MCP 的客户端无缝对接,提升开发者生产力,便捷获取多模型洞察。

如何搭建

Windsurf

  1. 确保已安装 Node.js 16.x 或更高版本。
  2. 安装并运行 Ollama,并确保所需模型已准备好。
  3. 编辑你的 Windsurf 配置文件,添加多模型顾问 MCP 服务器
  4. mcpServers 部分加入以下 JSON 片段:
    {
      "multi-ai-advisor-mcp": {
        "command": "npx",
        "args": ["@YuChenSSR/multi-ai-advisor-mcp@latest"],
        "env": {
          "OLLAMA_HOST": "http://localhost:11434"
        }
      }
    }
    
  5. 保存配置并重启 Windsurf。
  6. 验证服务器是否正常运行并可访问。

Claude

  1. 安装 Node.js 16.x 或更高版本。
  2. 确保 Ollama 正在运行并已拉取所需模型。
  3. 使用 Smithery 一键安装:
    npx -y @smithery/cli install @YuChenSSR/multi-ai-advisor-mcp --client claude
    
  4. 或将以下内容添加到你的 Claude MCP 配置中:
    {
      "multi-ai-advisor-mcp": {
        "command": "npx",
        "args": ["@YuChenSSR/multi-ai-advisor-mcp@latest"],
        "env": {
          "OLLAMA_HOST": "http://localhost:11434"
        }
      }
    }
    
  5. 保存并重启 Claude,然后验证集成效果。

Cursor

  1. 安装 Node.js 和 Ollama。
  2. 编辑 Cursor 的 MCP 服务器配置,包含如下内容:
    {
      "multi-ai-advisor-mcp": {
        "command": "npx",
        "args": ["@YuChenSSR/multi-ai-advisor-mcp@latest"],
        "env": {
          "OLLAMA_HOST": "http://localhost:11434"
        }
      }
    }
    
  3. 保存配置,重启 Cursor 并验证 MCP 可用性。

Cline

  1. 确保已安装 Node.js、Ollama 及所需模型。
  2. 定位并编辑 Cline 的 MCP 配置文件。
  3. 添加如下内容:
    {
      "multi-ai-advisor-mcp": {
        "command": "npx",
        "args": ["@YuChenSSR/multi-ai-advisor-mcp@latest"],
        "env": {
          "OLLAMA_HOST": "http://localhost:11434"
        }
      }
    }
    
  4. 保存、重启 Cline 并确认 MCP 正常工作。

密钥安全

如需保护 API 密钥或敏感环境变量,请在配置中使用 env 字段:

{
  "multi-ai-advisor-mcp": {
    "command": "npx",
    "args": ["@YuChenSSR/multi-ai-advisor-mcp@latest"],
    "env": {
      "OLLAMA_HOST": "http://localhost:11434",
      "MY_SECRET_API_KEY": "${MY_SECRET_API_KEY}"
    }
  }
}

请在操作系统或 CI/CD 流水线中设定环境变量,避免明文写入密钥。

如何在流程中使用 MCP

在 FlowHunt 中集成 MCP

要将 MCP 服务器集成到 FlowHunt 的工作流中,请先在你的流程中添加 MCP 组件,并将其连接到你的 AI 代理上:

FlowHunt MCP flow

点击 MCP 组件以打开配置面板。在系统 MCP 配置区,按如下 JSON 格式插入你的 MCP 服务器详情:

{
  "multi-ai-advisor-mcp": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

配置完成后,AI 代理即可作为工具使用该 MCP,享受其所有功能和能力。请记得将 “multi-ai-advisor-mcp” 替换为你的 MCP 服务器实际名称,并将 URL 替换为你自己的 MCP 服务器地址。


概览

部分可用性备注说明
概览README.md、主页
提示词清单未找到提示词模板
资源清单未明确列出资源
工具清单代码或文档中未找到工具清单
密钥安全.env & JSON 配置示例
采样支持(评价不重要)未提及

我们的观点

多模型顾问 MCP 在搭建方面文档详尽,独特的“顾问委员会”方式也很有价值,但在提示词、资源和工具的透明度方面略有欠缺。对于多模型决策工作流来说价值极高,但若能提供更多技术细节会更好。综合表格评价,我给这个 MCP 打 6/10,基础内容齐全且应用场景吸引人,但技术文档还有提升空间。

MCP 评分

是否有 LICENSE✅ (MIT)
至少有一个工具
Fork 数量15
Star 数量49

常见问题

试用多模型顾问 MCP 服务器

释放 AI 顾问委员会的力量。聚合多个模型的观点,借助 FlowHunt 的多模型顾问 MCP,丰富你的工作流洞察。

了解更多

多集群 MCP 服务器
多集群 MCP 服务器

多集群 MCP 服务器

多集群 MCP 服务器赋能 GenAI 系统和开发者工具,通过模型上下文协议(MCP)实现对多个 Kubernetes 集群的资源管理、监控和编排,助力智能自动化与高效 DevOps 流程。...

2 分钟阅读
Kubernetes AI +5
MongoDB MCP 服务器
MongoDB MCP 服务器

MongoDB MCP 服务器

MongoDB MCP 服务器实现了 AI 助手与 MongoDB 数据库的无缝集成,可通过标准化的 Model Context Protocol (MCP) 实现数据库的直接管理、查询自动化和数据检索。...

2 分钟阅读
AI MCP +5
OpenAPI MCP 服务器
OpenAPI MCP 服务器

OpenAPI MCP 服务器

OpenAPI MCP 服务器让 AI 助手能够探索和理解 OpenAPI 规范,为开发者和大模型提供详细的 API 上下文、摘要和端点信息,无需直接执行端点。...

2 分钟阅读
API OpenAPI +5