Qwen Max MCP 服务器

Qwen Max MCP 服务器

使用基于 Node.js/TypeScript 构建的稳定可扩展 MCP 服务器,将 Qwen Max 语言模型集成到您的工作流中,适用于 Claude Desktop 等平台。

“Qwen Max” MCP 服务器的作用是什么?

Qwen Max MCP 服务器是模型上下文协议(MCP)的实现,旨在将 Qwen Max 语言模型与外部客户端(如 AI 助手和开发工具)连接起来。作为桥梁,该服务器可将 Qwen 系列模型无缝集成进需要高级语言理解与生成的工作流中。它通过支持大上下文推理、多步推理和复杂提示词交互,提升开发效率。服务器基于 Node.js/TypeScript 构建,兼容性和稳定性极佳,特别适合与 Claude Desktop 配合使用,并支持安全、可扩展的部署。服务器支持多种 Qwen 模型变体,在优化性能与成本的同时,为需要强大语言模型能力的项目提供多样化解决方案。

提示词列表

仓库中未提及或描述任何明确的提示词模板。

资源列表

仓库中未记录任何明确的 MCP 资源原语。

工具列表

仓库中未提供或描述任何明确的工具或“server.py”(或等效可执行工具文件)。

该 MCP 服务器的使用场景

  • 大上下文聊天与推理:支持与 Qwen Max 模型交互,最大支持 32,768 token 上下文窗口,适合文档总结、代码分析或多步任务推理。
  • 模型实验与评估:开发者可以通过统一的 MCP 接口,对 Qwen 系列不同模型(Max、Plus、Turbo)进行基准测试与实验,选择最适合自身场景的模型。
  • 与 Claude Desktop 的无缝集成:服务器为 Claude Desktop 提供开箱即用的兼容性,为 AI 助力的高效办公流程提供稳定可靠的基础。
  • 基于 API 的语言模型访问:开发者可安全地将 Qwen 模型能力作为服务对外开放,适用于需要强大语言理解的聊天机器人、助手或自动化脚本开发。
  • Token 成本管理:凭借清晰的价格文档和免费额度,组织可高效管理大规模部署下的 token 消耗。

如何进行设置

Windsurf

  1. 确保已安装 Node.js (v18+) 和 npm。
  2. 安装 MCP 服务器包:
    npx -y @smithery/cli install @66julienmartin/mcp-server-qwen_max --client windsurf
    
  3. 找到您的 Windsurf 配置文件并添加 MCP 服务器配置:
    {
      "mcpServers": [
        {
          "command": "npx",
          "args": ["@66julienmartin/mcp-server-qwen_max", "start"]
        }
      ]
    }
    
  4. 保存配置并重启 Windsurf。
  5. 在 Windsurf UI 中确认服务器已显示。

安全存储 API 密钥

{
  "env": {
    "DASHSCOPE_API_KEY": "<your_api_key>"
  }
}

Claude

  1. 安装 Node.js (v18+) 和 npm。
  2. 使用 Smithery 为 Claude Desktop 安装:
    npx -y @smithery/cli install @66julienmartin/mcp-server-qwen_max --client claude
    
  3. 编辑 Claude Desktop 配置,添加如下内容:
    {
      "mcpServers": [
        {
          "command": "npx",
          "args": ["@66julienmartin/mcp-server-qwen_max", "start"]
        }
      ]
    }
    
  4. 重启 Claude Desktop。
  5. 确认 MCP 服务器已运行。

安全存储 API 密钥

{
  "env": {
    "DASHSCOPE_API_KEY": "<your_api_key>"
  }
}

Cursor

  1. 安装 Node.js 和 npm。
  2. 在终端输入:
    npx -y @smithery/cli install @66julienmartin/mcp-server-qwen_max --client cursor
    
  3. 更新 Cursor 配置文件:
    {
      "mcpServers": [
        {
          "command": "npx",
          "args": ["@66julienmartin/mcp-server-qwen_max", "start"]
        }
      ]
    }
    
  4. 重启 Cursor。
  5. 检查服务器是否被列出。

安全存储 API 密钥

{
  "env": {
    "DASHSCOPE_API_KEY": "<your_api_key>"
  }
}

Cline

  1. 安装 Node.js 和 npm。
  2. 运行安装命令:
    npx -y @smithery/cli install @66julienmartin/mcp-server-qwen_max --client cline
    
  3. 在 Cline 配置文件中添加服务器:
    {
      "mcpServers": [
        {
          "command": "npx",
          "args": ["@66julienmartin/mcp-server-qwen_max", "start"]
        }
      ]
    }
    
  4. 保存并重启 Cline。
  5. 在 Cline 中确保 MCP 服务器已正常运行。

安全存储 API 密钥

{
  "env": {
    "DASHSCOPE_API_KEY": "<your_api_key>"
  }
}

如何在流程中使用 MCP

在 FlowHunt 中集成 MCP

要将 MCP 服务器集成到 FlowHunt 工作流中,请先在流程中添加 MCP 组件,并将其连接至您的 AI Agent:

FlowHunt MCP flow

点击 MCP 组件以打开配置面板。在系统 MCP 配置部分,按以下 JSON 格式插入您的 MCP 服务器信息:

{
  "qwen-max": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

配置完成后,AI Agent 即可作为工具使用该 MCP,获得其全部功能和能力。请记得将 “qwen-max” 替换为您实际 MCP 服务器的名称(如 “github-mcp”、“weather-api” 等),并将 URL 替换为您自己的 MCP 服务器地址。


总览

部分可用性详情/备注
总览提供完整概述和模型信息
提示词列表未记录提示词模板
资源列表未发现明确 MCP 资源原语
工具列表未明确列出工具
安全存储 API 密钥配置中有环境变量用法说明
采样支持(评价时可忽略)未提及

根据现有信息,Qwen Max MCP 服务器在安装和模型相关文档方面表现良好,但在公共仓库中未明确说明或实现 MCP 资源、工具或提示词模板,这在一定程度上限制了其可扩展性与开箱即用的高级 MCP 功能。

我们的看法

我们为该 MCP 服务器打出 5/10 的评分。其安装和模型支持文档清晰,项目开源且许可证宽松,但缺乏文档化的工具、资源和提示词模板,降低了对依赖 MCP 全功能工作流场景的直接价值。

MCP 评分

是否有 LICENSE
至少包含一个工具
Fork 数量6
Star 数量19

常见问题

什么是 Qwen Max MCP 服务器?

Qwen Max MCP 服务器是一款模型上下文协议(MCP)服务器,可将 Qwen Max 及其相关语言模型与外部客户端和开发工具连接起来。它支持大上下文推理、多步推理,并通过统一接口让 Qwen 模型易于访问。

Qwen Max MCP 服务器支持哪些使用场景?

它支持大上下文聊天和推理(最多 32,768 个 token)、模型实验、与 Claude Desktop 的无缝集成、基于 API 的访问以构建助手或自动化,以及大规模部署下的 token 成本管理。

该服务器是否自带提示词模板或工具?

没有,目前公共仓库未记录任何明确的提示词模板、MCP 资源原语或可执行工具。

在设置 Qwen Max MCP 服务器时如何保护我的 API 密钥?

请将 DASHSCOPE_API_KEY 存储在环境变量中,如各客户端的设置说明所示。这样可以避免敏感密钥泄露到源码和配置文件中。

Qwen Max MCP 服务器是开源的吗?

是的,该服务器是开源的,采用宽松的许可证,适合实验和生产环境使用。

对该 MCP 服务器的整体评价如何?

其在安装和模型集成方面有良好文档,但缺乏对工具、资源或提示词模板的即时支持,整体评分为 5/10。

在 FlowHunt 上试用 Qwen Max MCP 服务器

解锁大上下文 AI 能力并实现与 Qwen Max MCP 服务器的无缝集成。现在就开始使用先进的语言模型进行构建。

了解更多

ModelContextProtocol(MCP)服务器集成
ModelContextProtocol(MCP)服务器集成

ModelContextProtocol(MCP)服务器集成

ModelContextProtocol(MCP)服务器作为AI代理与外部数据源、API和服务之间的桥梁,使FlowHunt用户能够构建具备上下文感知、自动化工作流的AI助手。本指南涵盖了安全集成的设置、配置与最佳实践。...

2 分钟阅读
AI Integration +4
多模型顾问 MCP 服务器
多模型顾问 MCP 服务器

多模型顾问 MCP 服务器

多模型顾问 MCP 服务器使 FlowHunt 能够将 AI 助手与多个本地 Ollama 模型连接,实现同时查询和综合多种 AI 视角,为用户带来更丰富、更细致的回复。...

2 分钟阅读
AI MCP +5
Kubernetes MCP 服务器集成
Kubernetes MCP 服务器集成

Kubernetes MCP 服务器集成

Kubernetes MCP 服务器连接 AI 助手与 Kubernetes 集群,实现通过标准化 MCP 命令进行 AI 驱动的自动化、资源管理和 DevOps 工作流。...

2 分钟阅读
AI Kubernetes +4