Deepseek Thinker MCP 服务器

Deepseek Thinker MCP 服务器

AI MCP Reasoning Chain of Thought

“Deepseek Thinker” MCP 服务器的作用是什么?

Deepseek Thinker MCP 服务器作为模型上下文协议(MCP)提供者,将 Deepseek 模型推理内容交付给支持 MCP 的 AI 客户端,例如 Claude Desktop。它使 AI 助手能够通过 Deepseek API 服务或本地 Ollama 服务器访问 Deepseek 的思考过程和推理输出。通过集成该服务器,开发者可以利用云端或本地推理能力,强化 AI 工作流中的聚焦推理。本服务器尤其适用于需要详细推理链或思维链(CoT)输出以指导下游 AI 任务的场景,非常适合高级开发、调试和 AI 智能体能力提升。

提示模板列表

仓库或文档中未提及明确的提示模板。

资源列表

文档或代码库中未详细列出明确的 MCP 资源。

工具列表

  • get-deepseek-thinker
    • 描述: 使用 Deepseek 模型进行推理。
    • 输入参数: originPrompt(字符串)— 用户的原始提示。
    • 返回: 包含推理过程的结构化文本响应。

该 MCP 服务器的应用场景

  • AI 推理增强
    • 利用 Deepseek 的详细思维链输出,增强 AI 客户端响应,并提供透明推理步骤。
  • 与 Claude Desktop 集成
    • 无缝集成到 Claude Desktop 或类似 AI 平台,通过 MCP 启用高级推理能力。
  • 双推理模式
    • 可根据隐私、成本或延迟需求选择云端(OpenAI API)或本地(Ollama)模型推理。
  • 开发者调试与分析
    • 用于揭示和分析模型思考,适用于研究、调试和可解释性研究。
  • 灵活部署
    • 可本地或云端运行服务器,满足多样化工作流需求。

如何设置

Windsurf

  1. 前置条件: 确保系统已安装 Node.js 和 npx。
  2. 配置文件: 找到您的 Windsurf 配置文件(如 windsurf_config.json)。
  3. 添加 Deepseek Thinker MCP 服务器:mcpServers 对象中插入以下 JSON 片段:
    {
      "deepseek-thinker": {
        "command": "npx",
        "args": [
          "-y",
          "deepseek-thinker-mcp"
        ],
        "env": {
          "API_KEY": "<Your API Key>",
          "BASE_URL": "<Your Base URL>"
        }
      }
    }
    
  4. 保存并重启: 保存更改并重启 Windsurf。
  5. 验证: 在 Windsurf 客户端检查 MCP 服务器集成情况。

Claude

  1. 前置条件: 已安装 Node.js 和 npx。
  2. 编辑配置: 打开 claude_desktop_config.json
  3. 添加 MCP 服务器:
    {
      "mcpServers": {
        "deepseek-thinker": {
          "command": "npx",
          "args": [
            "-y",
            "deepseek-thinker-mcp"
          ],
          "env": {
            "API_KEY": "<Your API Key>",
            "BASE_URL": "<Your Base URL>"
          }
        }
      }
    }
    
  4. 保存配置: 写入更改并重启 Claude Desktop。
  5. 验证: 确认 Deepseek Thinker 已在 MCP 工具列表中可用。

Cursor

  1. 确保前置条件: 需已安装 Node.js 和 npx。
  2. 定位 Cursor 配置: 打开您的 Cursor MCP 配置文件。
  3. 插入 MCP 服务器信息:
    {
      "mcpServers": {
        "deepseek-thinker": {
          "command": "npx",
          "args": [
            "-y",
            "deepseek-thinker-mcp"
          ],
          "env": {
            "API_KEY": "<Your API Key>",
            "BASE_URL": "<Your Base URL>"
          }
        }
      }
    }
    
  4. 保存并重启: 应用更改并重启 Cursor。
  5. 检查集成: 验证 Deepseek Thinker 是否可用。

Cline

  1. 前置条件: 确保 Node.js 和 npx 已就绪。
  2. 编辑 Cline 配置: 打开 Cline 配置文件。
  3. 添加 MCP 服务器块:
    {
      "mcpServers": {
        "deepseek-thinker": {
          "command": "npx",
          "args": [
            "-y",
            "deepseek-thinker-mcp"
          ],
          "env": {
            "API_KEY": "<Your API Key>",
            "BASE_URL": "<Your Base URL>"
          }
        }
      }
    }
    
  4. 保存并重启: 保存配置并重启 Cline。
  5. 验证功能: 确认服务器已列出且可访问。

注意:API 密钥安全

对于所有平台,应通过 env 部分的环境变量提供 API 密钥和敏感配置信息。例如:

{
  "mcpServers": {
    "deepseek-thinker": {
      "command": "npx",
      "args": [
        "-y",
        "deepseek-thinker-mcp"
      ],
      "env": {
        "API_KEY": "<Your API Key>",
        "BASE_URL": "<Your Base URL>"
      }
    }
  }
}

如需本地 Ollama 模式,在 env 对象中设置 USE_OLLAMA"true"

"env": {
  "USE_OLLAMA": "true"
}

在流程中使用 MCP

在 FlowHunt 中使用 MCP

要将 MCP 服务器集成到 FlowHunt 工作流中,首先添加 MCP 组件到您的流程,并将其连接至 AI 智能体:

FlowHunt MCP flow

点击 MCP 组件以打开配置面板。在系统 MCP 配置部分,使用如下 JSON 格式插入您的 MCP 服务器信息:

{
  "deepseek-thinker": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

配置完成后,AI 智能体即可作为工具使用该 MCP,访问其全部功能和能力。请记得将 “deepseek-thinker” 替换为您的实际 MCP 服务器名称,并设置正确的 URL。


概览

部分可用性说明/备注
概览
提示模板列表未记录提示模板
资源列表未找到明确 MCP 资源
工具列表get-deepseek-thinker 工具
API 密钥安全配置中使用环境变量
采样支持(评估时不重要)未提及

根据下表,Deepseek Thinker MCP 服务器为推理集成提供了专注的工具,易于设置,但缺乏详细提示模板和明确的资源定义。该项目开源,拥有一定的关注度,并支持安全凭证管理。作为 MCP 服务器,其整体完整性和实用性评分为 6/10


MCP 评分

是否有 LICENSE 文件⛔(未检测到 LICENSE 文件)
是否有至少一个工具
Fork 数量12
Star 数量51

常见问题

什么是 Deepseek Thinker MCP 服务器?

它是一个模型上下文协议(MCP)服务器,将 Deepseek 模型推理引入支持 MCP 的 AI 客户端,提供思维链输出和透明模型思考,用于高级 AI 工作流与调试。

Deepseek Thinker MCP 服务器提供哪些工具?

它提供 'get-deepseek-thinker' 工具,用于使用 Deepseek 模型进行推理并返回结构化推理输出。

我可以用本地 AI 模型运行 Deepseek Thinker 吗?

可以,Deepseek Thinker 支持云端和本地(Ollama)推理。将环境变量 'USE_OLLAMA' 设置为 'true' 即可启用本地模式。

如何安全地提供 API 密钥?

API 密钥和敏感信息应存储在 MCP 服务器配置的 'env' 环境变量部分,而不是硬编码在源文件中。

如果超出内存或 token 限制会发生什么?

限制由底层 Deepseek 模型或 API 决定;超出限制可能会截断响应或导致错误,请相应调整配置和输入。

有提示模板或其他 MCP 资源吗?

当前 Deepseek Thinker MCP 服务器文档未提供明确的提示模板或额外 MCP 资源。

用 Deepseek 推理增强您的 AI

集成 Deepseek Thinker MCP 服务器,为您的 AI 智能体赋予详细推理能力,提升开发工作流。

了解更多

DeepSeek MCP 服务器
DeepSeek MCP 服务器

DeepSeek MCP 服务器

DeepSeek MCP 服务器将 DeepSeek 的先进语言模型与兼容 MCP 的应用集成,提供安全、匿名的 API 访问,使在 Claude Desktop 和 FlowHunt 等工具中实现可扩展、保护隐私的 AI 工作流成为可能。...

2 分钟阅读
AI MCP Server +6
DeepSeek MCP 服务器
DeepSeek MCP 服务器

DeepSeek MCP 服务器

DeepSeek MCP 服务器作为安全代理,将 DeepSeek 的先进语言模型连接到兼容 MCP 的应用(如 Claude Desktop 或 FlowHunt),实现匿名 API 使用、工作流自动化和集中管理。...

2 分钟阅读
AI MCP +5
Deepseek R1 MCP 服务器
Deepseek R1 MCP 服务器

Deepseek R1 MCP 服务器

Deepseek R1 MCP 服务器可以将 DeepSeek 的高级语言模型(如 Deepseek R1 和 V3)无缝集成到 Claude Desktop 及其他支持的平台——为 AI 智能体赋予超大上下文窗口、强大推理和高级文本生成能力。...

2 分钟阅读
AI MCP Server +4