
多模型顾问 MCP 服务器
多模型顾问 MCP 服务器使 FlowHunt 能够将 AI 助手与多个本地 Ollama 模型连接,实现同时查询和综合多种 AI 视角,为用户带来更丰富、更细致的回复。...
FlowHunt在您的内部系统和AI工具之间提供额外的安全层,让您能够精细控制从MCP服务器可访问哪些工具。托管在我们基础设施中的MCP服务器可以与FlowHunt的聊天机器人以及ChatGPT、Claude和各种AI编辑器等热门AI平台无缝集成。
Qwen Max MCP 服务器是模型上下文协议(MCP)的实现,旨在将 Qwen Max 语言模型与外部客户端(如 AI 助手和开发工具)连接起来。作为桥梁,该服务器可将 Qwen 系列模型无缝集成进需要高级语言理解与生成的工作流中。它通过支持大上下文推理、多步推理和复杂提示词交互,提升开发效率。服务器基于 Node.js/TypeScript 构建,兼容性和稳定性极佳,特别适合与 Claude Desktop 配合使用,并支持安全、可扩展的部署。服务器支持多种 Qwen 模型变体,在优化性能与成本的同时,为需要强大语言模型能力的项目提供多样化解决方案。
仓库中未提及或描述任何明确的提示词模板。
仓库中未记录任何明确的 MCP 资源原语。
仓库中未提供或描述任何明确的工具或“server.py”(或等效可执行工具文件)。
npx -y @smithery/cli install @66julienmartin/mcp-server-qwen_max --client windsurf
{
"mcpServers": [
{
"command": "npx",
"args": ["@66julienmartin/mcp-server-qwen_max", "start"]
}
]
}
{
"env": {
"DASHSCOPE_API_KEY": "<your_api_key>"
}
}
npx -y @smithery/cli install @66julienmartin/mcp-server-qwen_max --client claude
{
"mcpServers": [
{
"command": "npx",
"args": ["@66julienmartin/mcp-server-qwen_max", "start"]
}
]
}
{
"env": {
"DASHSCOPE_API_KEY": "<your_api_key>"
}
}
npx -y @smithery/cli install @66julienmartin/mcp-server-qwen_max --client cursor
{
"mcpServers": [
{
"command": "npx",
"args": ["@66julienmartin/mcp-server-qwen_max", "start"]
}
]
}
{
"env": {
"DASHSCOPE_API_KEY": "<your_api_key>"
}
}
npx -y @smithery/cli install @66julienmartin/mcp-server-qwen_max --client cline
{
"mcpServers": [
{
"command": "npx",
"args": ["@66julienmartin/mcp-server-qwen_max", "start"]
}
]
}
{
"env": {
"DASHSCOPE_API_KEY": "<your_api_key>"
}
}
在 FlowHunt 中集成 MCP
要将 MCP 服务器集成到 FlowHunt 工作流中,请先在流程中添加 MCP 组件,并将其连接至您的 AI Agent:

点击 MCP 组件以打开配置面板。在系统 MCP 配置部分,按以下 JSON 格式插入您的 MCP 服务器信息:
{
"qwen-max": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
配置完成后,AI Agent 即可作为工具使用该 MCP,获得其全部功能和能力。请记得将 “qwen-max” 替换为您实际 MCP 服务器的名称(如 “github-mcp”、“weather-api” 等),并将 URL 替换为您自己的 MCP 服务器地址。
| 部分 | 可用性 | 详情/备注 |
|---|---|---|
| 总览 | ✅ | 提供完整概述和模型信息 |
| 提示词列表 | ⛔ | 未记录提示词模板 |
| 资源列表 | ⛔ | 未发现明确 MCP 资源原语 |
| 工具列表 | ⛔ | 未明确列出工具 |
| 安全存储 API 密钥 | ✅ | 配置中有环境变量用法说明 |
| 采样支持(评价时可忽略) | ⛔ | 未提及 |
根据现有信息,Qwen Max MCP 服务器在安装和模型相关文档方面表现良好,但在公共仓库中未明确说明或实现 MCP 资源、工具或提示词模板,这在一定程度上限制了其可扩展性与开箱即用的高级 MCP 功能。
我们为该 MCP 服务器打出 5/10 的评分。其安装和模型支持文档清晰,项目开源且许可证宽松,但缺乏文档化的工具、资源和提示词模板,降低了对依赖 MCP 全功能工作流场景的直接价值。
| 是否有 LICENSE | ✅ |
|---|---|
| 至少包含一个工具 | ⛔ |
| Fork 数量 | 6 |
| Star 数量 | 19 |

多模型顾问 MCP 服务器使 FlowHunt 能够将 AI 助手与多个本地 Ollama 模型连接,实现同时查询和综合多种 AI 视角,为用户带来更丰富、更细致的回复。...

Lspace MCP 服务器是一个开源后端和独立应用, 实现了模型上下文协议(MCP)。它通过捕获任意 AI 会话中的洞见并在各个工具间集成,使知识持久化、可检索,赋能开发者构建智能、富上下文的工作流。...

Kubernetes MCP 服务器连接 AI 助手与 Kubernetes/OpenShift 集群,实现通过自然语言工作流进行资源管理、Pod 操作和 DevOps 自动化。...