Chat MCP サーバー

Chat MCP サーバー

複数の LLM と統一されたデスクトップチャットインターフェースでやり取りできる、学習・プロトタイピング・開発に最適なクリーンで教育的な MCP クライアント。

「Chat MCP」MCP サーバーは何をするものですか?

Chat MCP は Model Context Protocol (MCP) を活用し、多様な大規模言語モデル(LLM)と連携できるデスクトップチャットアプリケーションです。クロスプラットフォーム対応の Electron 製で、ユーザーは複数の LLM バックエンドと接続・管理ができ、異なる AI モデルのテスト・やり取り・設定を統一されたインターフェースで行えます。ミニマルなコードベースは、開発者や研究者が MCP の基本原理を学び、さまざまなサーバーで迅速にプロトタイピングし、LLM 関連のワークフローを効率化できるよう設計されています。主な特徴は、動的な LLM 設定、マルチクライアント管理、デスクトップ/ウェブ環境への容易な適用性です。

プロンプト一覧

利用可能なドキュメントやリポジトリにはプロンプトテンプレートに関する記載はありません。

リソース一覧

リポジトリや設定例に明示的な MCP リソースの記載はありません。

ツール一覧

リポジトリや server.py(このリポジトリには server.py または同等のツール定義は存在しません)に特定のツール記載はありません。

本 MCP サーバーのユースケース

  • 統一 LLM テストプラットフォーム
    Chat MCP により、開発者は一つのインターフェースで複数の LLM プロバイダーやモデルを素早く設定・テストでき、評価プロセスを効率化できます。

  • クロスプラットフォーム AI チャットアプリ
    Linux、macOS、Windows をサポートし、主要な OS で AI モデルとやり取りするためのデスクトップチャットクライアントとして利用できます。

  • MCP 統合の開発・デバッグ
    クリーンなコードベースなので、開発者は自分の MCP 対応アプリの開発やデバッグ時のリファレンスや出発点として活用できます。

  • MCP の学習ツール
    プロジェクトのミニマルな構成は、Model Context Protocol の学習や LLM 接続の実験に最適です。

セットアップ方法

Windsurf

  1. Node.js をインストール: nodejs.org から Node.js をダウンロードしてインストールします。
  2. リポジトリをクローン:
    git clone https://github.com/AI-QL/chat-mcp.git
  3. 設定を編集:
    src/main/config.json に LLM API 情報や MCP 設定を記入します。
  4. 依存関係をインストール:
    npm install
  5. アプリを起動:
    npm start

JSON 設定例:

{
    "chatbotStore": {
        "apiKey": "",
        "url": "https://api.aiql.com",
        "path": "/v1/chat/completions",
        "model": "gpt-4o-mini",
        "mcp": true
    }
}

注意: API キーは環境変数や暗号化ストレージ(設定ファイルで直接サポートはありませんが推奨)で安全に管理してください。

Claude

  1. Node.js をインストール: nodejs.org から入手します。
  2. Chat MCP をダウンロード/クローンします。
  3. src/main/config.json を編集し、Claude 対応の API エンドポイントや詳細を入力します。
  4. npm install を実行。
  5. npm start で起動。

JSON 設定例:

{
    "chatbotStore": {
        "apiKey": "",
        "url": "https://anthropic.api.endpoint",
        "path": "/v1/messages",
        "model": "claude-3-opus",
        "mcp": true
    }
}

注意: 機密データには環境変数を利用してください。

Cursor

  1. Node.js をインストール。
  2. Chat MCP リポジトリをクローン。
  3. src/main/config.json を Cursor バックエンド用に更新。
  4. 依存関係をインストール。
  5. アプリケーションを起動。

JSON 設定例:

{
    "chatbotStore": {
        "apiKey": "",
        "url": "https://cursor.api.endpoint",
        "path": "/v1/chat/completions",
        "model": "cursor-model",
        "mcp": true
    }
}

注意: API キーには環境変数を使用してください。

Cline

  1. Node.js をインストール。
  2. リポジトリをクローン。
  3. Cline API 用に src/main/config.json を編集。
  4. npm install を実行。
  5. npm start で起動。

JSON 設定例:

{
    "chatbotStore": {
        "apiKey": "",
        "url": "https://cline.api.endpoint",
        "path": "/v1/chat/completions",
        "model": "cline-model",
        "mcp": true
    }
}

注意: API キーは環境変数で安全に管理してください。

API キーを安全に管理する例:

{
    "chatbotStore": {
        "apiKey": "${API_KEY}",
        "url": "https://api.example.com",
        "path": "/v1/chat/completions",
        "model": "your-model",
        "mcp": true
    }
}

アプリの起動前に環境変数 API_KEY を設定してください。

フロー内でこの MCP を使う方法

FlowHunt で MCP を使う

MCP サーバーを FlowHunt のワークフローに統合するには、フローに MCP コンポーネントを追加し、AI エージェントへ接続します:

FlowHunt MCP flow

MCP コンポーネントをクリックし、設定パネルを開きます。システム MCP 設定欄に、以下の JSON 形式で MCP サーバー情報を入力してください:

{
  "chat-mcp": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

設定後、AI エージェントはこの MCP をツールとして利用でき、全機能・能力にアクセス可能となります。“chat-mcp” は実際の MCP サーバー名に、URL もご自身の MCP サーバー URL に置き換えてください。


概要

セクション有無詳細・備考
概要
プロンプト一覧プロンプトテンプレートの記載なし
リソース一覧MCP リソースの記載なし
ツール一覧ツールの記載なし
API キーの安全管理推奨されるが標準機能ではない
サンプリング対応(評価上重要性は低い)サンプリングサポート記載なし

公開されている情報から、Chat MCP はシンプルで教育的かつ柔軟な MCP クライアントですが、高度な MCP 機能(ツール、リソース、サンプリング、roots)は公式ドキュメントやセットアップに含まれていません。主な価値はクリーンで拡張しやすいチャットフロントエンドとしての役割です。MCP 学習の出発点や高度な統合のベースとして最適です。


MCP スコア

ライセンス有無✅ Apache-2.0
ツールを1つ以上搭載
Fork数31
Star数226

よくある質問

Chat MCP とは何ですか?

Chat MCP は Electron 製のクロスプラットフォームデスクトップチャットアプリで、Model Context Protocol (MCP) を使って様々な LLM バックエンドと接続できます。LLM のプロトタイピング・テスト・設定を統一インターフェースで行えます。

Chat MCP の主な用途は何ですか?

Chat MCP は LLM のテスト、MCP 統合のデバッグ、MCP の原則学習、クリーンなリファレンス実装や高度なチャットツールのベースとして理想的です。

Chat MCP で API キーはどのように安全に管理できますか?

Chat MCP のデフォルト設定は平文ですが、API キーなどの機密値は環境変数として設定し、設定ファイルで参照することを推奨します。

Chat MCP はツールやリソースなど高度な MCP 機能をサポートしていますか?

いいえ。公開ドキュメントやコードベースにはツールやリソースなどの高度な MCP 機能は含まれていません。Chat MCP はミニマルで拡張性のあるチャットインターフェース提供に特化しています。

Chat MCP は FlowHunt で使えますか?

はい。Chat MCP は FlowHunt 内で MCP サーバーとして統合できます。MCP コンポーネントをフローに追加し、サーバー情報(JSON 形式)で設定してください。詳しくはドキュメントを参照ください。

FlowHunt で Chat MCP を試す

Chat MCP で複数の LLM を探求・操作しましょう。MCP 学習、素早いプロトタイイング、統一チャット体験に最適です。

詳細はこちら

Chatsum MCPサーバー
Chatsum MCPサーバー

Chatsum MCPサーバー

Chatsum MCPサーバーは、AIエージェントがユーザーのチャットデータベースからチャットメッセージを効率的に検索・要約できるようにし、簡潔な会話インサイトを提供してFlowHuntワークフロー内での分析をサポートします。...

1 分で読める
AI MCP Server +4
any-chat-completions-mcp MCPサーバー
any-chat-completions-mcp MCPサーバー

any-chat-completions-mcp MCPサーバー

any-chat-completions-mcp MCPサーバーは、FlowHuntや他のツールをあらゆるOpenAI SDK互換のChat Completion APIに接続します。OpenAI、Perplexity、Groq、xAI、PyroPromptsなど、複数のLLMプロバイダーとのシームレスな統合を、統一さ...

1 分で読める
AI Chatbot +5
マルチモデルアドバイザー MCP サーバー
マルチモデルアドバイザー MCP サーバー

マルチモデルアドバイザー MCP サーバー

マルチモデルアドバイザー MCP サーバーは、FlowHunt が複数のローカル Ollama モデルに AI アシスタントを接続できるようにし、同時に多様な AI の視点を照会・統合して、より豊かでニュアンスのある応答を実現します。...

2 分で読める
AI MCP +5