
DeepSeek MCP サーバー
DeepSeek MCP サーバーは安全なプロキシとして機能し、DeepSeek の高度な言語モデルを Claude Desktop や FlowHunt などの MCP 対応アプリケーションに接続します。これにより、匿名での API 利用、ワークフロー自動化、集中管理が可能となります。...
Deepseekの透明な推論と連鎖思考AI出力を、クラウドとローカル両方のデプロイに対応したMCP対応アシスタントに導入しましょう。
Deepseek Thinker MCPサーバーは、Model Context Protocol(MCP)プロバイダーとして機能し、Deepseekモデルの推論内容をClaude DesktopなどのMCP対応AIクライアントに提供します。AIアシスタントはDeepseekの思考過程や推論出力にアクセスでき、Deepseek APIサービスまたはローカルのOllamaサーバー経由で利用できます。このサーバーを統合することで、開発者はクラウドまたはローカル推論の両方を活用し、AIワークフローにフォーカスした推論機能を強化できます。特に詳細な推論の連鎖や連鎖思考(Chain-of-Thought, CoT)出力が下流のAIタスクに求められる場面で役立ち、高度な開発・デバッグやAIエージェントの機能拡張に有用です。
リポジトリやドキュメントには明示的なプロンプトテンプレートの記載はありません。
ドキュメントやコードベースに明示的なMCPリソースの記載はありません。
originPrompt
(文字列) — ユーザーの元プロンプト。windsurf_config.json
)を探します。mcpServers
オブジェクトに以下のJSONスニペットを挿入します。{
"deepseek-thinker": {
"command": "npx",
"args": [
"-y",
"deepseek-thinker-mcp"
],
"env": {
"API_KEY": "<Your API Key>",
"BASE_URL": "<Your Base URL>"
}
}
}
claude_desktop_config.json
を開きます。{
"mcpServers": {
"deepseek-thinker": {
"command": "npx",
"args": [
"-y",
"deepseek-thinker-mcp"
],
"env": {
"API_KEY": "<Your API Key>",
"BASE_URL": "<Your Base URL>"
}
}
}
}
{
"mcpServers": {
"deepseek-thinker": {
"command": "npx",
"args": [
"-y",
"deepseek-thinker-mcp"
],
"env": {
"API_KEY": "<Your API Key>",
"BASE_URL": "<Your Base URL>"
}
}
}
}
{
"mcpServers": {
"deepseek-thinker": {
"command": "npx",
"args": [
"-y",
"deepseek-thinker-mcp"
],
"env": {
"API_KEY": "<Your API Key>",
"BASE_URL": "<Your Base URL>"
}
}
}
}
すべてのプラットフォームで、APIキーや機密設定値はenv
セクションの環境変数として提供してください。例:
{
"mcpServers": {
"deepseek-thinker": {
"command": "npx",
"args": [
"-y",
"deepseek-thinker-mcp"
],
"env": {
"API_KEY": "<Your API Key>",
"BASE_URL": "<Your Base URL>"
}
}
}
}
ローカルOllamaモードの場合は、env
オブジェクトにUSE_OLLAMA
を"true"
として追加します:
"env": {
"USE_OLLAMA": "true"
}
FlowHuntでMCPを統合するには、まずMCPコンポーネントをフローに追加し、AIエージェントに接続します。
MCPコンポーネントをクリックして設定パネルを開き、「システムMCP設定」セクションに以下のJSON形式でMCPサーバー情報を入力します。
{
"deepseek-thinker": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
設定が完了すると、AIエージェントはこのMCPをツールとして利用でき、その全機能と能力にアクセスできます。必ず"deepseek-thinker"を実際のMCPサーバー名に、URLを正しいものに変更してください。
セクション | 利用可否 | 詳細/備考 |
---|---|---|
概要 | ✅ | |
プロンプト一覧 | ⛔ | ドキュメントにプロンプトテンプレートなし |
リソース一覧 | ⛔ | 明示的なMCPリソースなし |
ツール一覧 | ✅ | get-deepseek-thinkerツール |
APIキーのセキュリティ | ✅ | 設定ファイル内で環境変数として管理 |
サンプリングサポート(評価で重要度低) | ⛔ | 記載なし |
下記2つの表に基づき、Deepseek Thinker MCPサーバーは推論統合に特化したツールを提供し、セットアップも容易ですが、詳細なプロンプトテンプレートや明示的なリソース定義はありません。プロジェクトはオープンソースで、適度な注目を集めており、安全な認証情報の取り扱いにも対応しています。MCPサーバーとしての総合完成度・実用性は6/10です。
ライセンスファイルあり | ⛔(LICENSEファイル未検出) |
---|---|
ツールが1つ以上ある | ✅ |
フォーク数 | 12 |
スター数 | 51 |
Model Context Protocolサーバーであり、Deepseekモデルの推論をMCP対応AIクライアントにもたらし、連鎖思考出力と透明性の高いモデル思考を提供して高度なAIワークフローやデバッグに役立ちます。
Deepseekモデルで推論を実行し、構造化された推論出力を返す「get-deepseek-thinker」ツールを提供します。
はい。Deepseek Thinkerはクラウドベースとローカル(Ollama)推論の両方に対応しています。ローカルモードの場合、「USE_OLLAMA」環境変数を「true」に設定してください。
APIキーなどの機密値は、MCPサーバー設定の「env」セクションで環境変数として保存し、ソースファイルに直接記載しないようにしてください。
制限は基盤となるDeepseekモデルやAPIによって決まり、超過した場合はレスポンスが途中で切れる、もしくはエラーが発生する可能性があります。設定や入力値を調整してください。
現時点のDeepseek Thinker MCPサーバーのドキュメントには、明示的なプロンプトテンプレートや追加MCPリソースは提供されていません。
DeepSeek MCP サーバーは安全なプロキシとして機能し、DeepSeek の高度な言語モデルを Claude Desktop や FlowHunt などの MCP 対応アプリケーションに接続します。これにより、匿名での API 利用、ワークフロー自動化、集中管理が可能となります。...
DeepSeek MCPサーバーは、DeepSeekの高度な言語モデルをMCP対応アプリケーションと統合し、安全かつ匿名化されたAPIアクセスを提供、Claude DesktopやFlowHuntなどのツールでスケーラブルかつプライバシー重視のAIワークフローを実現します。...
Think MCP サーバーは、エージェント型AIワークフローのための構造化推論ツールを提供し、明示的な思考記録、ポリシー遵守、逐次的な意思決定、高度な批評・計画機能を実現します。ClaudeやFlowHunt、その他のエージェント型LLMとシームレスに統合でき、AIエージェントの行動の透明性と監査性を高めます。...