
Chat MCP サーバー
Chat MCP は、Model Context Protocol (MCP) を活用して様々な大規模言語モデル(LLM)と連携するクロスプラットフォームのデスクトップチャットアプリケーションです。開発者や研究者が複数の LLM バックエンドをテスト・操作・設定できる統一されたミニマルなインターフェースを提供し、プロト...
単一のMCPサーバーを介して、あらゆるOpenAI互換チャットAPIに簡単接続。FlowHuntなどでのマルチプロバイダーLLMワークフローを効率化。
any-chat-completions-mcp MCPサーバーは、AIアシスタントとOpenAI、Perplexity、Groq、xAI、PyroPromptsなどのOpenAI SDK互換Chat Completion APIの橋渡しをします。Model Context Protocol(MCP)に準拠しているため、外部のLLMプロバイダーを開発ワークフローにシームレスに統合できます。主な機能は、チャットベースの質問を設定したAIチャットプロバイダーへ中継することで、開発者はさまざまなLLMを好みの環境でツールとして活用可能です。これにより、プロバイダーの切り替えやLLM利用のスケールアップも簡単になり、AI活用の柔軟性と効率が向上します。
リポジトリやドキュメント内にプロンプトテンプレートの記載はありません。
リポジトリやREADMEに明示的なMCPリソースは記載されていません。
Windsurf向けの特定手順はリポジトリやドキュメントに記載されていません。
npx
がインストールされていることを確認してください。claude_desktop_config.json
を編集します(MacOS: ~/Library/Application Support/Claude/claude_desktop_config.json
、Windows: %APPDATA%/Claude/claude_desktop_config.json
)。mcpServers
オブジェクトの下にMCPサーバー設定を追加します。env
オブジェクトに入力します。JSON例:
{
"mcpServers": {
"chat-openai": {
"command": "npx",
"args": [
"@pyroprompts/any-chat-completions-mcp"
],
"env": {
"AI_CHAT_KEY": "OPENAI_KEY",
"AI_CHAT_NAME": "OpenAI",
"AI_CHAT_MODEL": "gpt-4o",
"AI_CHAT_BASE_URL": "v1/chat/completions"
}
}
}
}
APIキーの安全な管理(環境変数の利用):
"env": {
"AI_CHAT_KEY": "YOUR_PROVIDER_KEY"
}
Cursor向けの特定手順はリポジトリやドキュメントに記載されていません。
Cline向けの特定手順はリポジトリやドキュメントに記載されていません。
FlowHuntでMCPを使う
MCPサーバーをFlowHuntワークフローに統合するには、まずMCPコンポーネントをフローに追加し、AIエージェントに接続します。
MCPコンポーネントをクリックして設定パネルを開きます。システムMCP設定セクションで、以下のJSON形式でMCPサーバー情報を入力します。
{
"MCP-name": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
設定後、AIエージェントはこのMCPをツールとして利用でき、すべての機能・能力にアクセス可能となります。“MCP-name"は実際のMCPサーバー名(例:“github-mcp”、“weather-api"など)に、URLはご自身のMCPサーバーURLに置き換えてください。
セクション | 利用可否 | 詳細・備考 |
---|---|---|
概要 | ✅ | READMEで目的や特徴をカバー |
プロンプト一覧 | ⛔ | プロンプトテンプレートの記載なし |
リソース一覧 | ⛔ | 明示的なMCPリソースの記載なし |
ツール一覧 | ✅ | READMEで「chat」ツールを記載 |
APIキーの安全管理 | ✅ | JSONの「env」でキー管理 |
サンプリング機能(評価では重要度低) | ⛔ | サンプリング機能の記載なし |
上記を踏まえ、any-chat-completions-mcpは、汎用的なOpenAI互換チャットAPIをツールとして追加するのに最適な、シンプルで特化型のMCPサーバーです。最大の強みはシンプルさと幅広い互換性ですが、リソースやプロンプトの抽象化機能はありません。日常的なLLM統合用途には堅牢ですが、パワーユーザー向けには更なる機能が求められるかもしれません。総合的には、一般用途で6/10と評価します。
ライセンスあり | ✅ (MIT) |
---|---|
ツールが1つ以上ある | ✅ |
フォーク数 | 17 |
スター数 | 129 |
これは、FlowHuntや任意のMCP互換クライアントと、OpenAI、Perplexity、Groq、xAI、PyroPromptsなどのOpenAI SDK互換Chat Completion APIを橋渡しするMCPサーバーです。チャットベースのクエリを単一のシンプルなツールと設定で中継します。
統合LLM、迅速なプロバイダー切り替え、デスクトップAIエージェントの動作、LLMのベンチマーク、安全なAPIゲートウェイとしての役割などです。
MCPサーバーの設定内で環境変数(APIキーやベースURL、モデル名など)を更新するだけで切り替えができます。コードの変更は不要で、設定変更後にクライアントを再起動してください。
はい、APIキーは設定内の環境変数で管理され、認証情報がコードベースに含まれないため、より安全です。
任意のOpenAI互換APIエンドポイントへチャットベースのメッセージを中継する、単一の「chat」ツールです。
いいえ、このサーバーはチャット補完に特化しており、プロンプトテンプレートや追加のリソースレイヤーは提供していません。
Chat MCP は、Model Context Protocol (MCP) を活用して様々な大規模言語モデル(LLM)と連携するクロスプラットフォームのデスクトップチャットアプリケーションです。開発者や研究者が複数の LLM バックエンドをテスト・操作・設定できる統一されたミニマルなインターフェースを提供し、プロト...
FlowHunt 用ヒューマン・イン・ザ・ループ MCP サーバーは、リアルタイムのインタラクティブなGUIダイアログを通じて、人間の判断・承認・入力をAIワークフローにシームレスに統合し、安全性・コンプライアンス・カスタマイズ性を強化します。...
mcp-proxy MCPサーバーは、Streamable HTTPとstdio MCPトランスポートを橋渡しし、AIアシスタントと多様なModel Context Protocol(MCP)サーバーまたはクライアント間のシームレスな統合を可能にします。互換性を拡大し、レガシーシステムの統合を効率化し、クロスプラットフ...