マルチモデルアドバイザー MCP サーバー

AI MCP Ollama Multi-Model

FlowHuntでMCPサーバーをホスティングするために私たちにお問い合わせください

FlowHuntは、お客様の内部システムとAIツールの間に追加のセキュリティレイヤーを提供し、MCPサーバーからアクセス可能なツールをきめ細かく制御できます。私たちのインフラストラクチャーでホストされているMCPサーバーは、FlowHuntのチャットボットや、ChatGPT、Claude、さまざまなAIエディターなどの人気のAIプラットフォームとシームレスに統合できます。

「マルチモデルアドバイザー」MCP サーバーは何をするものですか?

マルチモデルアドバイザー MCP サーバーは、AI アシスタントを複数のローカル Ollama モデルに接続し、同時に複数モデルへ照会し、応答を統合できる Model Context Protocol (MCP) サーバーです。この「アドバイザー協議会」的アプローチにより、Claude などの AI システムが異なるモデルから多様な視点を統合し、より深くニュアンスのある回答を実現します。各モデルごとに異なる役割やキャラクター設定(システムプロンプト)の割り当ても可能で、Claude for Desktop などの環境とシームレスに統合されます。開発ワークフローを強化し、モデル意見の集約、高度な意思決定、複数 AI ソースからの豊かな文脈情報の取得などに役立ちます。

プロンプト一覧

  • ⛔ リポジトリや README に明示的なプロンプトテンプレートは記載されていません。
Logo

ビジネスを成長させる準備はできましたか?

今日から無料トライアルを開始し、数日で結果を確認しましょう。

リソース一覧

  • ⛔ リポジトリやドキュメントに特定の MCP リソースは記載されていません。

ツール一覧

  • server.py などのファイルや README、ファイルツリーにも明示的なツール一覧はありません。

この MCP サーバーのユースケース

  • モデル意見の集約:開発者は、1つの質問に対して複数の Ollama モデルから見解を得ることで、よりバランスの取れた判断や意思決定が可能です。
  • 役割別照会:各モデルに異なる役割やキャラクターを割り当て、多様な専門家視点でのシナリオ分析やブレインストーミングができます。
  • システムモデルの俯瞰:利用可能な Ollama モデル一覧を確認し、用途に応じて最適なモデルの組み合わせを選択できます。
  • AI の協調的意思決定:「アドバイザー協議会」方式で多様なモデル出力を統合し、複雑な課題解決や合意形成にも有用です。
  • ワークフロー統合:Claude for Desktop など MCP 対応クライアントとスムーズに連携し、開発者の生産性やマルチモデルインサイトへのアクセスを高めます。

セットアップ方法

Windsurf

  1. Node.js 16.x 以上がインストールされていることを確認します。
  2. Ollama をインストール・起動し、必要なモデルが利用可能であることを確認します。
  3. Windsurf の設定ファイルを編集し、マルチモデルアドバイザー MCP サーバーを追加します
  4. mcpServers セクションに以下の JSON スニペットを追加します:
    {
      "multi-ai-advisor-mcp": {
        "command": "npx",
        "args": ["@YuChenSSR/multi-ai-advisor-mcp@latest"],
        "env": {
          "OLLAMA_HOST": "http://localhost:11434"
        }
      }
    }
    
  5. 設定を保存し、Windsurf を再起動します。
  6. サーバーが正常に稼働しているか確認してください。

Claude

  1. Node.js 16.x 以上をインストールします。
  2. Ollama が起動し、必要なモデルが取得済みであることを確認します。
  3. Smithery を使ってワンステップインストール:
    npx -y @smithery/cli install @YuChenSSR/multi-ai-advisor-mcp --client claude
    
  4. もしくは Claude MCP 設定に以下を追加:
    {
      "multi-ai-advisor-mcp": {
        "command": "npx",
        "args": ["@YuChenSSR/multi-ai-advisor-mcp@latest"],
        "env": {
          "OLLAMA_HOST": "http://localhost:11434"
        }
      }
    }
    
  5. 保存・Claude を再起動し、連携を確認します。

Cursor

  1. Node.js と Ollama をインストールします。
  2. Cursor の MCP サーバー設定に以下を追加します:
    {
      "multi-ai-advisor-mcp": {
        "command": "npx",
        "args": ["@YuChenSSR/multi-ai-advisor-mcp@latest"],
        "env": {
          "OLLAMA_HOST": "http://localhost:11434"
        }
      }
    }
    
  3. 設定を保存し、Cursor を再起動して MCP の有効性を確認します。

Cline

  1. 必要条件(Node.js、Ollama、必要なモデル)を確認します。
  2. Cline の MCP 設定ファイルを編集します。
  3. 以下を追加します:
    {
      "multi-ai-advisor-mcp": {
        "command": "npx",
        "args": ["@YuChenSSR/multi-ai-advisor-mcp@latest"],
        "env": {
          "OLLAMA_HOST": "http://localhost:11434"
        }
      }
    }
    
  4. 保存して Cline を再起動し、MCP が動作するか確認します。

API キーの保護について

API キーや機密性の高い環境変数は、設定ファイル内の env フィールドを利用して保護できます:

{
  "multi-ai-advisor-mcp": {
    "command": "npx",
    "args": ["@YuChenSSR/multi-ai-advisor-mcp@latest"],
    "env": {
      "OLLAMA_HOST": "http://localhost:11434",
      "MY_SECRET_API_KEY": "${MY_SECRET_API_KEY}"
    }
  }
}

秘密情報は OS や CI/CD パイプラインで環境変数として設定し、ハードコーディングを避けてください。

この MCP のフロー内での利用方法

FlowHunt での MCP 利用

MCP サーバーを FlowHunt のワークフローに統合するには、まず MCP コンポーネントをフローに追加し、AI エージェントと接続します。

FlowHunt MCP flow

MCP コンポーネントをクリックして設定パネルを開き、システム MCP 設定セクションで下記 JSON 形式でサーバー情報を入力します:

{
  "multi-ai-advisor-mcp": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

設定後、AI エージェントはこの MCP の全機能をツールとして利用できるようになります。“multi-ai-advisor-mcp” 部分は実際の MCP サーバー名に、URL は自身の MCP サーバー URL に置き換えてください。


概要

セクション利用可否詳細・備考
概要README.md、ホームページ
プロンプト一覧テンプレートなし
リソース一覧明示的なリソースなし
ツール一覧コード・ドキュメントにツール記載なし
API キー保護.env & JSON 設定例
サンプリングサポート(評価に重要度低)記載なし

所感

マルチモデルアドバイザー MCP はセットアップ手順がよくまとまっており、「アドバイザー協議会」アプローチが独自性を持ちますが、プロンプト・リソース・ツールの透明性には欠けています。マルチモデル意思決定ワークフローには高い価値がありますが、技術的な詳細がもっとあるとさらに良いでしょう。2つの表をもとにこの MCP を 6/10 と評価します。基本は網羅され、魅力的なユースケースですが、技術ドキュメントの深みが不足しています。

MCP スコア

ライセンスあり✅ (MIT)
ツールが少なくとも1つ
フォーク数15
スター数49

よくある質問

マルチモデルアドバイザー MCP サーバーをお試しください

AI アドバイザーの協議会の力を引き出しましょう。複数モデルからの視点を集約し、FlowHunt のマルチモデルアドバイザー MCP でより深いインサイトをワークフローに追加しましょう。

詳しく見る

マルチクラスター MCP サーバー
マルチクラスター MCP サーバー

マルチクラスター MCP サーバー

マルチクラスター MCP サーバーは、GenAI システムや開発者ツールが、Model Context Protocol (MCP) を通じて複数の Kubernetes クラスターのリソースを管理・監視・オーケストレーションできるようにし、インテリジェントな自動化や効率的な DevOps ワークフローを実現します。...

2 分で読める
Kubernetes AI +5
MongoDB MCPサーバー
MongoDB MCPサーバー

MongoDB MCPサーバー

MongoDB MCPサーバーは、AIアシスタントとMongoDBデータベース間のシームレスな統合を実現し、標準化されたModel Context Protocol(MCP)を通じて、直接的なデータベース管理・クエリ自動化・データ取得を可能にします。...

1 分で読める
AI MCP +5
Kubernetes MCPサーバー
Kubernetes MCPサーバー

Kubernetes MCPサーバー

Kubernetes MCPサーバーは、AIアシスタントとKubernetes/OpenShiftクラスターを橋渡しし、プログラムによるリソース管理、Pod操作、DevOps自動化を自然言語ワークフローで実現します。...

2 分で読める
Kubernetes MCP Server +4