多模型顾问 MCP 服务器

多模型顾问 MCP 服务器

FlowHunt 的多模型顾问 MCP 服务器让你的 AI 代理能够同时咨询多个 Ollama 模型,融合它们的输出,获得更全面的答案和更高级的协作决策。

“多模型顾问” MCP 服务器的作用是什么?

多模型顾问 MCP 服务器是一款模型上下文协议(MCP)服务器,旨在连接 AI 助手与多个本地 Ollama 模型,使其能够同时查询多个模型并整合它们的回复。这种被称为“顾问委员会”的方式,让像 Claude 这样的 AI 系统可以综合不同模型的多元观点,从而为用户问题提供更全面、更细致的答案。服务器支持为每个模型分配不同的角色或人设、自定义系统提示,并可与 Claude for Desktop 等环境无缝集成。它通过聚合模型观点、支持高级决策并提供来自多源 AI 的丰富上下文信息,极大提升了开发工作流效率。

提示词清单

  • ⛔ 仓库或 README 中未记录明确的提示词模板。

资源清单

  • ⛔ 仓库或文档中未列出具体的 MCP 资源。

工具清单

  • ⛔ 仓库中未在 server.py 或类似文件提供工具清单,README 或文件树中也未明确说明工具接口。

本 MCP 服务器的应用场景

  • 聚合模型观点:开发者可利用该服务器对同一问题从多种 Ollama 模型获得多角度答案,从而做出更均衡、更明智的决策。
  • 基于角色的查询:为每个模型分配不同的角色或人设,可模拟多专家视角进行情景分析或头脑风暴。
  • 系统模型总览:查看系统上所有可用的 Ollama 模型,用户可为特定需求选择最佳组合。
  • 协作式 AI 决策:“顾问委员会”方式有助于综合多模型的输出,适用于复杂问题解决或需达成共识的场景。
  • 工作流集成:与 Claude for Desktop 及其他兼容 MCP 的客户端无缝对接,提升开发者生产力,便捷获取多模型洞察。

如何搭建

Windsurf

  1. 确保已安装 Node.js 16.x 或更高版本。
  2. 安装并运行 Ollama,并确保所需模型已准备好。
  3. 编辑你的 Windsurf 配置文件,添加多模型顾问 MCP 服务器。
  4. mcpServers 部分加入以下 JSON 片段:
    {
      "multi-ai-advisor-mcp": {
        "command": "npx",
        "args": ["@YuChenSSR/multi-ai-advisor-mcp@latest"],
        "env": {
          "OLLAMA_HOST": "http://localhost:11434"
        }
      }
    }
    
  5. 保存配置并重启 Windsurf。
  6. 验证服务器是否正常运行并可访问。

Claude

  1. 安装 Node.js 16.x 或更高版本。
  2. 确保 Ollama 正在运行并已拉取所需模型。
  3. 使用 Smithery 一键安装:
    npx -y @smithery/cli install @YuChenSSR/multi-ai-advisor-mcp --client claude
    
  4. 或将以下内容添加到你的 Claude MCP 配置中:
    {
      "multi-ai-advisor-mcp": {
        "command": "npx",
        "args": ["@YuChenSSR/multi-ai-advisor-mcp@latest"],
        "env": {
          "OLLAMA_HOST": "http://localhost:11434"
        }
      }
    }
    
  5. 保存并重启 Claude,然后验证集成效果。

Cursor

  1. 安装 Node.js 和 Ollama。
  2. 编辑 Cursor 的 MCP 服务器配置,包含如下内容:
    {
      "multi-ai-advisor-mcp": {
        "command": "npx",
        "args": ["@YuChenSSR/multi-ai-advisor-mcp@latest"],
        "env": {
          "OLLAMA_HOST": "http://localhost:11434"
        }
      }
    }
    
  3. 保存配置,重启 Cursor 并验证 MCP 可用性。

Cline

  1. 确保已安装 Node.js、Ollama 及所需模型。
  2. 定位并编辑 Cline 的 MCP 配置文件。
  3. 添加如下内容:
    {
      "multi-ai-advisor-mcp": {
        "command": "npx",
        "args": ["@YuChenSSR/multi-ai-advisor-mcp@latest"],
        "env": {
          "OLLAMA_HOST": "http://localhost:11434"
        }
      }
    }
    
  4. 保存、重启 Cline 并确认 MCP 正常工作。

密钥安全

如需保护 API 密钥或敏感环境变量,请在配置中使用 env 字段:

{
  "multi-ai-advisor-mcp": {
    "command": "npx",
    "args": ["@YuChenSSR/multi-ai-advisor-mcp@latest"],
    "env": {
      "OLLAMA_HOST": "http://localhost:11434",
      "MY_SECRET_API_KEY": "${MY_SECRET_API_KEY}"
    }
  }
}

请在操作系统或 CI/CD 流水线中设定环境变量,避免明文写入密钥。

如何在流程中使用 MCP

在 FlowHunt 中集成 MCP

要将 MCP 服务器集成到 FlowHunt 的工作流中,请先在你的流程中添加 MCP 组件,并将其连接到你的 AI 代理上:

FlowHunt MCP flow

点击 MCP 组件以打开配置面板。在系统 MCP 配置区,按如下 JSON 格式插入你的 MCP 服务器详情:

{
  "multi-ai-advisor-mcp": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

配置完成后,AI 代理即可作为工具使用该 MCP,享受其所有功能和能力。请记得将 “multi-ai-advisor-mcp” 替换为你的 MCP 服务器实际名称,并将 URL 替换为你自己的 MCP 服务器地址。


概览

部分可用性备注说明
概览README.md、主页
提示词清单未找到提示词模板
资源清单未明确列出资源
工具清单代码或文档中未找到工具清单
密钥安全.env & JSON 配置示例
采样支持(评价不重要)未提及

我们的观点

多模型顾问 MCP 在搭建方面文档详尽,独特的“顾问委员会”方式也很有价值,但在提示词、资源和工具的透明度方面略有欠缺。对于多模型决策工作流来说价值极高,但若能提供更多技术细节会更好。综合表格评价,我给这个 MCP 打 6/10,基础内容齐全且应用场景吸引人,但技术文档还有提升空间。

MCP 评分

是否有 LICENSE✅ (MIT)
至少有一个工具
Fork 数量15
Star 数量49

常见问题

什么是多模型顾问 MCP 服务器?

它是一款 MCP 服务器,可以让 AI 助手同时连接多个 Ollama 模型,将多个模型(“顾问委员会”)的答案组合起来,提供更全面、更细致的回复。

主要应用场景有哪些?

应用场景包括:聚合模型观点以实现更平衡的决策、基于角色的查询用于场景分析、协作式 AI 决策、以及借助多模型洞察优化开发者工作流。

如何保护敏感环境变量?

你应在 MCP 配置中使用 'env' 字段存放密钥,并在操作系统或 CI/CD 环境中设置变量,避免将其硬编码在代码或配置文件中。

可以为每个模型分配不同角色或人设吗?

可以。你可以为每个 Ollama 模型分配不同的系统提示或角色,实现多专家视角的场景模拟。

如何将 MCP 服务器集成到 FlowHunt?

在你的流程中添加 MCP 组件,然后通过系统 MCP 配置面板插入服务器详情。这样你的 AI 代理就能访问服务器的全部功能。

试用多模型顾问 MCP 服务器

释放 AI 顾问委员会的力量。聚合多个模型的观点,借助 FlowHunt 的多模型顾问 MCP,丰富你的工作流洞察。

了解更多

ModelContextProtocol(MCP)服务器集成
ModelContextProtocol(MCP)服务器集成

ModelContextProtocol(MCP)服务器集成

ModelContextProtocol(MCP)服务器作为AI代理与外部数据源、API和服务之间的桥梁,使FlowHunt用户能够构建具备上下文感知、自动化工作流的AI助手。本指南涵盖了安全集成的设置、配置与最佳实践。...

2 分钟阅读
AI Integration +4
多集群 MCP 服务器
多集群 MCP 服务器

多集群 MCP 服务器

多集群 MCP 服务器赋能 GenAI 系统和开发者工具,通过模型上下文协议(MCP)实现对多个 Kubernetes 集群的资源管理、监控和编排,助力智能自动化与高效 DevOps 流程。...

2 分钟阅读
Kubernetes AI +5
MCP-Server-Creator MCP 服务器
MCP-Server-Creator MCP 服务器

MCP-Server-Creator MCP 服务器

MCP-Server-Creator 是一个元服务器,可以快速创建和配置新的模型上下文协议(MCP)服务器。通过动态代码生成、工具构建和资源管理,它简化了自定义 AI 连接与集成服务器的开发,帮助技术团队自动化工作流程并加速部署。...

2 分钟阅读
AI MCP +5