Deepseek Thinker MCP サーバー

Deepseek Thinker MCP サーバー

Deepseekの透明な推論と連鎖思考AI出力を、クラウドとローカル両方のデプロイに対応したMCP対応アシスタントに導入しましょう。

「Deepseek Thinker」MCPサーバーは何をするのか?

Deepseek Thinker MCPサーバーは、Model Context Protocol(MCP)プロバイダーとして機能し、Deepseekモデルの推論内容をClaude DesktopなどのMCP対応AIクライアントに提供します。AIアシスタントはDeepseekの思考過程や推論出力にアクセスでき、Deepseek APIサービスまたはローカルのOllamaサーバー経由で利用できます。このサーバーを統合することで、開発者はクラウドまたはローカル推論の両方を活用し、AIワークフローにフォーカスした推論機能を強化できます。特に詳細な推論の連鎖や連鎖思考(Chain-of-Thought, CoT)出力が下流のAIタスクに求められる場面で役立ち、高度な開発・デバッグやAIエージェントの機能拡張に有用です。

プロンプト一覧

リポジトリやドキュメントには明示的なプロンプトテンプレートの記載はありません。

リソース一覧

ドキュメントやコードベースに明示的なMCPリソースの記載はありません。

ツール一覧

  • get-deepseek-thinker
    • 説明: Deepseekモデルを使って推論を実行します。
    • 入力パラメータ: originPrompt(文字列) — ユーザーの元プロンプト。
    • 返却値: 推論プロセスを含む構造化されたテキスト応答。

このMCPサーバーの活用例

  • AI推論の強化
    • Deepseekによる詳細な連鎖思考出力でAIクライアントの回答を拡張し、透明な推論過程を提示。
  • Claude Desktopとの統合
    • Claude DesktopなどのAIプラットフォームへシームレスに統合し、MCP経由で高度な推論機能を提供。
  • 二重推論モード
    • プライバシー・コスト・レイテンシー要件に応じて、クラウド(OpenAI API)またはローカル(Ollama)モデル推論を選択可能。
  • 開発者向けデバッグ&分析
    • モデルの思考内容を可視化・分析し、研究・デバッグ・解釈性の向上に活用。
  • 柔軟なデプロイ
    • ローカルまたはクラウド環境でサーバーを運用し、多様なワークフローに対応。

セットアップ方法

Windsurf

  1. 前提条件: システムにNode.jsとnpxがインストールされていることを確認します。
  2. 設定ファイル: Windsurfの設定ファイル(例:windsurf_config.json)を探します。
  3. Deepseek Thinker MCPサーバーの追加: mcpServersオブジェクトに以下のJSONスニペットを挿入します。
    {
      "deepseek-thinker": {
        "command": "npx",
        "args": [
          "-y",
          "deepseek-thinker-mcp"
        ],
        "env": {
          "API_KEY": "<Your API Key>",
          "BASE_URL": "<Your Base URL>"
        }
      }
    }
    
  4. 保存と再起動: 変更を保存し、Windsurfを再起動します。
  5. 確認: WindsurfクライアントでMCPサーバー統合を確認します。

Claude

  1. 前提条件: Node.jsとnpxがインストールされていること。
  2. 設定編集: claude_desktop_config.jsonを開きます。
  3. MCPサーバーを追加:
    {
      "mcpServers": {
        "deepseek-thinker": {
          "command": "npx",
          "args": [
            "-y",
            "deepseek-thinker-mcp"
          ],
          "env": {
            "API_KEY": "<Your API Key>",
            "BASE_URL": "<Your Base URL>"
          }
        }
      }
    }
    
  4. 保存: 変更を保存し、Claude Desktopを再起動します。
  5. 確認: MCPツール一覧にDeepseek Thinkerが利用可能か確認します。

Cursor

  1. 前提条件確認: Node.jsとnpxがインストールされていること。
  2. Cursor設定ファイル: Cursor MCP設定ファイルを開きます。
  3. MCPサーバー詳細を挿入:
    {
      "mcpServers": {
        "deepseek-thinker": {
          "command": "npx",
          "args": [
            "-y",
            "deepseek-thinker-mcp"
          ],
          "env": {
            "API_KEY": "<Your API Key>",
            "BASE_URL": "<Your Base URL>"
          }
        }
      }
    }
    
  4. 保存&再起動: 変更を適用し、Cursorを再起動します。
  5. 統合確認: Deepseek Thinkerが稼働しているか検証します。

Cline

  1. 前提条件: Node.jsとnpxを準備してください。
  2. Cline設定編集: Clineの設定ファイルを開きます。
  3. MCPサーバーブロック追加:
    {
      "mcpServers": {
        "deepseek-thinker": {
          "command": "npx",
          "args": [
            "-y",
            "deepseek-thinker-mcp"
          ],
          "env": {
            "API_KEY": "<Your API Key>",
            "BASE_URL": "<Your Base URL>"
          }
        }
      }
    }
    
  4. 保存と再起動: 設定を保存し、Clineを再起動します。
  5. 動作確認: サーバーがリストに表示され利用可能か確認します。

備考:APIキーのセキュリティ

すべてのプラットフォームで、APIキーや機密設定値はenvセクションの環境変数として提供してください。例:

{
  "mcpServers": {
    "deepseek-thinker": {
      "command": "npx",
      "args": [
        "-y",
        "deepseek-thinker-mcp"
      ],
      "env": {
        "API_KEY": "<Your API Key>",
        "BASE_URL": "<Your Base URL>"
      }
    }
  }
}

ローカルOllamaモードの場合は、envオブジェクトにUSE_OLLAMA"true"として追加します:

"env": {
  "USE_OLLAMA": "true"
}

FlowHuntフロー内でのMCPの使い方

FlowHuntでMCPを統合するには、まずMCPコンポーネントをフローに追加し、AIエージェントに接続します。

FlowHunt MCP flow

MCPコンポーネントをクリックして設定パネルを開き、「システムMCP設定」セクションに以下のJSON形式でMCPサーバー情報を入力します。

{
  "deepseek-thinker": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

設定が完了すると、AIエージェントはこのMCPをツールとして利用でき、その全機能と能力にアクセスできます。必ず"deepseek-thinker"を実際のMCPサーバー名に、URLを正しいものに変更してください。


概要

セクション利用可否詳細/備考
概要
プロンプト一覧ドキュメントにプロンプトテンプレートなし
リソース一覧明示的なMCPリソースなし
ツール一覧get-deepseek-thinkerツール
APIキーのセキュリティ設定ファイル内で環境変数として管理
サンプリングサポート(評価で重要度低)記載なし

下記2つの表に基づき、Deepseek Thinker MCPサーバーは推論統合に特化したツールを提供し、セットアップも容易ですが、詳細なプロンプトテンプレートや明示的なリソース定義はありません。プロジェクトはオープンソースで、適度な注目を集めており、安全な認証情報の取り扱いにも対応しています。MCPサーバーとしての総合完成度・実用性は6/10です。


MCPスコア

ライセンスファイルあり⛔(LICENSEファイル未検出)
ツールが1つ以上ある
フォーク数12
スター数51

よくある質問

Deepseek Thinker MCPサーバーとは?

Model Context Protocolサーバーであり、Deepseekモデルの推論をMCP対応AIクライアントにもたらし、連鎖思考出力と透明性の高いモデル思考を提供して高度なAIワークフローやデバッグに役立ちます。

Deepseek Thinker MCPサーバーが提供するツールは?

Deepseekモデルで推論を実行し、構造化された推論出力を返す「get-deepseek-thinker」ツールを提供します。

Deepseek ThinkerはローカルAIモデルにも対応していますか?

はい。Deepseek Thinkerはクラウドベースとローカル(Ollama)推論の両方に対応しています。ローカルモードの場合、「USE_OLLAMA」環境変数を「true」に設定してください。

APIキーはどのように安全に提供しますか?

APIキーなどの機密値は、MCPサーバー設定の「env」セクションで環境変数として保存し、ソースファイルに直接記載しないようにしてください。

メモリやトークン制限を超えた場合はどうなりますか?

制限は基盤となるDeepseekモデルやAPIによって決まり、超過した場合はレスポンスが途中で切れる、もしくはエラーが発生する可能性があります。設定や入力値を調整してください。

プロンプトテンプレートや追加のMCPリソースはありますか?

現時点のDeepseek Thinker MCPサーバーのドキュメントには、明示的なプロンプトテンプレートや追加MCPリソースは提供されていません。

Deepseek推論でAIを強化

Deepseek Thinker MCPサーバーを統合して、AIエージェントに詳細な推論能力を与え、開発ワークフローを向上させましょう。

詳細はこちら

DeepSeek MCP サーバー
DeepSeek MCP サーバー

DeepSeek MCP サーバー

DeepSeek MCP サーバーは安全なプロキシとして機能し、DeepSeek の高度な言語モデルを Claude Desktop や FlowHunt などの MCP 対応アプリケーションに接続します。これにより、匿名での API 利用、ワークフロー自動化、集中管理が可能となります。...

2 分で読める
AI MCP +5
DeepSeek MCPサーバー
DeepSeek MCPサーバー

DeepSeek MCPサーバー

DeepSeek MCPサーバーは、DeepSeekの高度な言語モデルをMCP対応アプリケーションと統合し、安全かつ匿名化されたAPIアクセスを提供、Claude DesktopやFlowHuntなどのツールでスケーラブルかつプライバシー重視のAIワークフローを実現します。...

1 分で読める
AI MCP Server +6
Think MCP サーバー
Think MCP サーバー

Think MCP サーバー

Think MCP サーバーは、エージェント型AIワークフローのための構造化推論ツールを提供し、明示的な思考記録、ポリシー遵守、逐次的な意思決定、高度な批評・計画機能を実現します。ClaudeやFlowHunt、その他のエージェント型LLMとシームレスに統合でき、AIエージェントの行動の透明性と監査性を高めます。...

1 分で読める
AI MCP +6