
Qiniu MCPサーバー統合
Qiniu MCPサーバーは、AIアシスタントやLLMクライアントとQiniu Cloudのストレージおよびマルチメディアサービスを橋渡しします。これにより、Model Context Protocol(MCP)インターフェースを介して、AI主導のワークフローからファイル管理、自動メディア処理、CDN操作が可能になりま...
FlowHuntは、お客様の内部システムとAIツールの間に追加のセキュリティレイヤーを提供し、MCPサーバーからアクセス可能なツールをきめ細かく制御できます。私たちのインフラストラクチャーでホストされているMCPサーバーは、FlowHuntのチャットボットや、ChatGPT、Claude、さまざまなAIエディターなどの人気のAIプラットフォームとシームレスに統合できます。
Qwen Max MCPサーバーは、Model Context Protocol(MCP)を実装し、Qwen Max言語モデルをAIアシスタントや開発ツールなど外部クライアントと接続します。サーバーが橋渡し役となることで、高度な言語理解・生成を必要とするワークフローにQwenシリーズモデルをシームレスに統合できます。大規模文脈推論、マルチステップ推論、複雑なプロンプト対話など、開発を強化します。Node.js/TypeScript上で構築されており、最大限の安定性と互換性を実現。特にClaude Desktopとの連携に最適で、安全かつスケーラブルな運用もサポートします。複数のQwenモデルバリアントに対応しており、パフォーマンスとコスト最適化の両立が可能な、堅牢な言語モデル活用を求めるプロジェクトに最適なソリューションです。
リポジトリには明示的なプロンプトテンプレートの記載はありません。
リポジトリには明示的なMCPリソースプリミティブの記載はありません。
リポジトリ内には明示的なツールや「server.py」(または同等の実行可能ファイル)の記載はありません。
npx -y @smithery/cli install @66julienmartin/mcp-server-qwen_max --client windsurf
{
"mcpServers": [
{
"command": "npx",
"args": ["@66julienmartin/mcp-server-qwen_max", "start"]
}
]
}
{
"env": {
"DASHSCOPE_API_KEY": "<your_api_key>"
}
}
npx -y @smithery/cli install @66julienmartin/mcp-server-qwen_max --client claude
{
"mcpServers": [
{
"command": "npx",
"args": ["@66julienmartin/mcp-server-qwen_max", "start"]
}
]
}
{
"env": {
"DASHSCOPE_API_KEY": "<your_api_key>"
}
}
npx -y @smithery/cli install @66julienmartin/mcp-server-qwen_max --client cursor
{
"mcpServers": [
{
"command": "npx",
"args": ["@66julienmartin/mcp-server-qwen_max", "start"]
}
]
}
{
"env": {
"DASHSCOPE_API_KEY": "<your_api_key>"
}
}
npx -y @smithery/cli install @66julienmartin/mcp-server-qwen_max --client cline
{
"mcpServers": [
{
"command": "npx",
"args": ["@66julienmartin/mcp-server-qwen_max", "start"]
}
]
}
{
"env": {
"DASHSCOPE_API_KEY": "<your_api_key>"
}
}
FlowHuntでMCPを利用
フローにMCPコンポーネントを追加し、AIエージェントと接続してワークフローへ統合します。

MCPコンポーネントをクリックして設定パネルを開きます。system MCP設定欄に、以下のJSON形式でMCPサーバー情報を入力してください。
{
"qwen-max": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
設定が完了すると、AIエージェントはこのMCPをツールとして利用でき、すべての機能にアクセス可能となります。なお、「qwen-max」の部分は実際のMCPサーバー名(例:“github-mcp”, “weather-api"など)に、URL部分は自身のMCPサーバーURLに置き換えてください。
| セクション | 利用可否 | 詳細・備考 |
|---|---|---|
| 概要 | ✅ | モデル情報含め全体解説あり |
| プロンプト一覧 | ⛔ | テンプレート未記載 |
| リソース一覧 | ⛔ | 明示的なMCPリソース未記載 |
| ツール一覧 | ⛔ | 明示的なツール未記載 |
| APIキーの保護 | ✅ | セットアップ手順で環境変数利用を記載 |
| サンプリングサポート(評価にあまり影響しない) | ⛔ | 記載なし |
提供された情報から、Qwen Max MCPサーバーはインストールやモデル情報のドキュメントは充実していますが、MCPリソース・ツール・プロンプトテンプレートの明示的実装・記載が公開リポジトリにはありません。そのため、高度なMCP機能の拡張性や即時利用性は限定的です。
このMCPサーバーを5/10と評価します。インストールやモデルサポートが明確で、パーミッシブなオープンソースですが、ツール・リソース・プロンプトテンプレートのドキュメントがなく、MCPの全機能を活用するワークフローには即効性が劣ります。
| ライセンスあり | ✅ |
|---|---|
| ツールが1つ以上ある | ⛔ |
| フォーク数 | 6 |
| スター数 | 19 |

Qiniu MCPサーバーは、AIアシスタントやLLMクライアントとQiniu Cloudのストレージおよびマルチメディアサービスを橋渡しします。これにより、Model Context Protocol(MCP)インターフェースを介して、AI主導のワークフローからファイル管理、自動メディア処理、CDN操作が可能になりま...

Kubernetes MCP サーバーは、AIアシスタントと Kubernetes クラスターを橋渡しし、標準化された MCP コマンドによる AI 主導の自動化、リソース管理、DevOps ワークフローを実現します。...

Kubernetes MCPサーバーは、AIアシスタントとKubernetes/OpenShiftクラスターを橋渡しし、プログラムによるリソース管理、Pod操作、DevOps自動化を自然言語ワークフローで実現します。...
クッキーの同意
閲覧体験を向上させ、トラフィックを分析するためにクッキーを使用します。 See our privacy policy.