Qwen Max MCPサーバー

Qwen Max MCPサーバー

Qwen Max言語モデルを、Claude Desktop等に最適なNode.js/TypeScript製の安定・拡張可能なMCPサーバーでワークフローに統合できます。

「Qwen Max」MCPサーバーは何をするのか?

Qwen Max MCPサーバーは、Model Context Protocol(MCP)を実装し、Qwen Max言語モデルをAIアシスタントや開発ツールなど外部クライアントと接続します。サーバーが橋渡し役となることで、高度な言語理解・生成を必要とするワークフローにQwenシリーズモデルをシームレスに統合できます。大規模文脈推論、マルチステップ推論、複雑なプロンプト対話など、開発を強化します。Node.js/TypeScript上で構築されており、最大限の安定性と互換性を実現。特にClaude Desktopとの連携に最適で、安全かつスケーラブルな運用もサポートします。複数のQwenモデルバリアントに対応しており、パフォーマンスとコスト最適化の両立が可能な、堅牢な言語モデル活用を求めるプロジェクトに最適なソリューションです。

プロンプト一覧

リポジトリには明示的なプロンプトテンプレートの記載はありません。

リソース一覧

リポジトリには明示的なMCPリソースプリミティブの記載はありません。

ツール一覧

リポジトリ内には明示的なツールや「server.py」(または同等の実行可能ファイル)の記載はありません。

このMCPサーバーのユースケース

  • 大規模文脈チャット・推論:最大32,768トークンの文脈ウィンドウ対応で、ドキュメント要約・コード解析・多段階タスク推論などに最適です。
  • モデル実験・評価:Qwenシリーズ(Max, Plus, Turboなど)を統一MCPインターフェースでベンチマーク・実験し、用途に最適なモデルを選択できます。
  • Claude Desktopとのシームレス統合:Claude Desktopとの即時連携設計で、AIによる生産性向上ワークフローを安定して運用できます。
  • API経由の言語モデル利用:開発者がQwenモデルの機能をサービスとして安全に公開でき、チャットボット・アシスタント・自動化スクリプトの基盤に適しています。
  • トークンコスト管理:料金や無料枠の明瞭なドキュメントにより、大規模展開時のトークン消費を効率的に管理できます。

セットアップ方法

Windsurf

  1. Node.js(v18以上)とnpmがインストールされていることを確認します。
  2. MCPサーバーパッケージをインストールします:
    npx -y @smithery/cli install @66julienmartin/mcp-server-qwen_max --client windsurf
    
  3. Windsurfの設定ファイルにMCPサーバー設定を追加します:
    {
      "mcpServers": [
        {
          "command": "npx",
          "args": ["@66julienmartin/mcp-server-qwen_max", "start"]
        }
      ]
    }
    
  4. 設定を保存し、Windsurfを再起動します。
  5. Windsurf UIでサーバーが表示されているか確認します。

APIキーの保護

{
  "env": {
    "DASHSCOPE_API_KEY": "<your_api_key>"
  }
}

Claude

  1. Node.js(v18以上)とnpmをインストールします。
  2. SmitheryでClaude Desktop用にインストール:
    npx -y @smithery/cli install @66julienmartin/mcp-server-qwen_max --client claude
    
  3. Claude Desktopの設定ファイルに以下を追加します:
    {
      "mcpServers": [
        {
          "command": "npx",
          "args": ["@66julienmartin/mcp-server-qwen_max", "start"]
        }
      ]
    }
    
  4. Claude Desktopを再起動します。
  5. MCPサーバーが稼働していることを確認します。

APIキーの保護

{
  "env": {
    "DASHSCOPE_API_KEY": "<your_api_key>"
  }
}

Cursor

  1. Node.jsとnpmをインストールします。
  2. ターミナルで以下を実行:
    npx -y @smithery/cli install @66julienmartin/mcp-server-qwen_max --client cursor
    
  3. Cursorの設定ファイルを更新します:
    {
      "mcpServers": [
        {
          "command": "npx",
          "args": ["@66julienmartin/mcp-server-qwen_max", "start"]
        }
      ]
    }
    
  4. Cursorを再起動します。
  5. サーバーが一覧に表示されているか確認します。

APIキーの保護

{
  "env": {
    "DASHSCOPE_API_KEY": "<your_api_key>"
  }
}

Cline

  1. Node.jsとnpmをインストールします。
  2. 以下のコマンドを実行:
    npx -y @smithery/cli install @66julienmartin/mcp-server-qwen_max --client cline
    
  3. Clineの設定ファイルにサーバーを追加します:
    {
      "mcpServers": [
        {
          "command": "npx",
          "args": ["@66julienmartin/mcp-server-qwen_max", "start"]
        }
      ]
    }
    
  4. 設定を保存し、Clineを再起動します。
  5. Cline上でMCPサーバーが動作していることを確認します。

APIキーの保護

{
  "env": {
    "DASHSCOPE_API_KEY": "<your_api_key>"
  }
}

フロー内でこのMCPを使うには

FlowHuntでMCPを利用

フローにMCPコンポーネントを追加し、AIエージェントと接続してワークフローへ統合します。

FlowHunt MCPフロー

MCPコンポーネントをクリックして設定パネルを開きます。system MCP設定欄に、以下のJSON形式でMCPサーバー情報を入力してください。

{
  "qwen-max": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

設定が完了すると、AIエージェントはこのMCPをツールとして利用でき、すべての機能にアクセス可能となります。なお、「qwen-max」の部分は実際のMCPサーバー名(例:“github-mcp”, “weather-api"など)に、URL部分は自身のMCPサーバーURLに置き換えてください。


概要

セクション利用可否詳細・備考
概要モデル情報含め全体解説あり
プロンプト一覧テンプレート未記載
リソース一覧明示的なMCPリソース未記載
ツール一覧明示的なツール未記載
APIキーの保護セットアップ手順で環境変数利用を記載
サンプリングサポート(評価にあまり影響しない)記載なし

提供された情報から、Qwen Max MCPサーバーはインストールやモデル情報のドキュメントは充実していますが、MCPリソース・ツール・プロンプトテンプレートの明示的実装・記載が公開リポジトリにはありません。そのため、高度なMCP機能の拡張性や即時利用性は限定的です。

当社の評価

このMCPサーバーを5/10と評価します。インストールやモデルサポートが明確で、パーミッシブなオープンソースですが、ツール・リソース・プロンプトテンプレートのドキュメントがなく、MCPの全機能を活用するワークフローには即効性が劣ります。

MCPスコア

ライセンスあり
ツールが1つ以上ある
フォーク数6
スター数19

よくある質問

Qwen Max MCPサーバーとは何ですか?

Qwen Max MCPサーバーは、Qwen Maxや関連言語モデルを外部クライアントや開発ツールと接続するModel Context Protocol(MCP)サーバーです。大規模文脈推論、マルチステップ推論を可能にし、Qwenモデルを統一インターフェースで利用できます。

Qwen Max MCPサーバーはどのような用途に対応していますか?

最大32,768トークンまでの大規模文脈チャットや推論、モデル実験、Claude Desktopとのシームレス統合、APIによるアシスタントや自動化構築、トークンコスト管理などをサポートします。

このサーバーにはプロンプトテンプレートやツールが標準で提供されていますか?

いいえ。現時点の公開リポジトリには、明示的なプロンプトテンプレート・MCPリソースプリミティブ・実行可能ツールの記載はありません。

Qwen Max MCPサーバーのセットアップ時にAPIキーはどのように保護しますか?

各クライアントのセットアップ手順に従い、DASHSCOPE_API_KEYを環境変数として保存してください。これにより、ソースコードや設定ファイルに機密キーが含まれません。

Qwen Max MCPサーバーはオープンソースですか?

はい。このサーバーはパーミッシブライセンスのオープンソースで、実験用途にも本番運用にも適しています。

このMCPサーバーの総合評価は?

インストールやモデル統合については十分にドキュメント化されていますが、ツール・リソース・プロンプトテンプレートの即時サポートがなく、総合スコアは5/10となっています。

FlowHuntでQwen Max MCPサーバーを試す

大規模文脈AI機能とQwen Max MCPサーバーのシームレス統合を体験しましょう。今すぐ高度な言語モデルで構築を始めましょう。

詳細はこちら

マルチモデルアドバイザー MCP サーバー
マルチモデルアドバイザー MCP サーバー

マルチモデルアドバイザー MCP サーバー

マルチモデルアドバイザー MCP サーバーは、FlowHunt が複数のローカル Ollama モデルに AI アシスタントを接続できるようにし、同時に多様な AI の視点を照会・統合して、より豊かでニュアンスのある応答を実現します。...

2 分で読める
AI MCP +5
ModelContextProtocol (MCP) サーバー統合
ModelContextProtocol (MCP) サーバー統合

ModelContextProtocol (MCP) サーバー統合

ModelContextProtocol (MCP) サーバーは、AIエージェントと外部データソース、API、サービスをつなぐ橋渡しとして機能し、FlowHuntユーザーがコンテキスト認識型でワークフロー自動化が可能なAIアシスタントを構築できるようにします。本ガイドでは、セットアップ、構成、および安全な統合のためのベ...

1 分で読める
AI Integration +4
DeepSeek MCPサーバー
DeepSeek MCPサーバー

DeepSeek MCPサーバー

DeepSeek MCPサーバーは、DeepSeekの高度な言語モデルをMCP対応アプリケーションと統合し、安全かつ匿名化されたAPIアクセスを提供、Claude DesktopやFlowHuntなどのツールでスケーラブルかつプライバシー重視のAIワークフローを実現します。...

1 分で読める
AI MCP Server +6