Deepseek R1 MCP 服务器

Deepseek R1 MCP 服务器

AI MCP Server DeepSeek Integration

“Deepseek R1” MCP 服务器的作用是什么?

Deepseek R1 MCP 服务器是一种模型上下文协议(MCP)服务器实现,旨在将 Claude Desktop 与 DeepSeek 的高级语言模型(如 Deepseek R1 和 DeepSeek V3)连接。它作为 AI 助手与 DeepSeek 强大推理优化模型(具备 8192-token 上下文窗口)之间的桥梁,使 AI 智能体能够执行更强的自然语言理解和生成任务。开发者可借助 Deepseek R1 MCP 服务器,无缝集成这些模型到自身的工作流,实现高级文本生成、推理,并与外部数据源或 API 交互。该实现注重稳定、可靠和高效的集成,采用 Node.js/TypeScript,确保最佳兼容性与类型安全。

提示列表

仓库中未记录任何提示模板。

资源列表

仓库中未记录任何显式 MCP 资源。

工具列表

  • 高级文本生成工具
    • 使 LLM 可利用 Deepseek R1(或 V3)模型的大上下文窗口和推理能力生成文本。

该 MCP 服务器的应用场景

  • 高级文本生成
    利用 DeepSeek R1 的超大上下文窗口(8192 tokens),生成长篇复杂的文档、故事或技术写作内容。
  • 增强推理任务
    使用 Deepseek R1 模型的优化能力,处理重逻辑或多步骤推理,适用于问题解决和分析任务。
  • 无缝集成到 Claude Desktop
    直接将先进的语言模型集成到 Claude Desktop 环境,提升 AI 助手在日常工作流中的能力。
  • 灵活模型选择
    通过更改配置在 Deepseek R1 与 DeepSeek V3 之间切换,满足不同项目需求。
  • 基于 API 的自动化
    在可用 DeepSeek API 的环境下启用 AI 驱动的自动化,简化内容创作或知识库管理。

如何设置

Windsurf

  1. 确保已安装 Node.js(v18+)和 npm。
  2. 克隆仓库并安装依赖:
    git clone https://github.com/66julienmartin/MCP-server-Deepseek_R1.git
    cd deepseek-r1-mcp
    npm install
    
  3. 复制 .env.exemple.env 并设置您的 DeepSeek API 密钥。
  4. 编辑 Windsurf 配置,添加 MCP 服务器:
    {
      "mcpServers": {
        "deepseek_r1": {
          "command": "node",
          "args": ["/path/to/deepseek-r1-mcp/build/index.js"],
          "env": {
            "DEEPSEEK_API_KEY": "your-api-key"
          }
        }
      }
    }
    
  5. 保存,重启 Windsurf,并确认服务器已运行。

Claude

  1. 安装 Node.js(v18+)和 npm。
  2. 克隆并设置 Deepseek R1 MCP 服务器,如上所述。
  3. 在 Claude 配置中添加:
    {
      "mcpServers": {
        "deepseek_r1": {
          "command": "node",
          "args": ["/path/to/deepseek-r1-mcp/build/index.js"],
          "env": {
            "DEEPSEEK_API_KEY": "your-api-key"
          }
        }
      }
    }
    
  4. 重启 Claude 并验证 MCP 服务器可用性。

Cursor

  1. 安装所需的 Node.js、npm。
  2. 设置服务器及环境变量。
  3. 在 Cursor 配置中添加服务器:
    {
      "mcpServers": {
        "deepseek_r1": {
          "command": "node",
          "args": ["/path/to/deepseek-r1-mcp/build/index.js"],
          "env": {
            "DEEPSEEK_API_KEY": "your-api-key"
          }
        }
      }
    }
    
  4. 保存,重启 Cursor,并测试服务器集成。

Cline

  1. 确保已安装 Node.js 和 npm。
  2. 克隆并构建 Deepseek R1 MCP 服务器。
  3. 在 Cline 配置中添加服务器:
    {
      "mcpServers": {
        "deepseek_r1": {
          "command": "node",
          "args": ["/path/to/deepseek-r1-mcp/build/index.js"],
          "env": {
            "DEEPSEEK_API_KEY": "your-api-key"
          }
        }
      }
    }
    
  4. 重启 Cline 并确认 MCP 服务器已连接。

API 密钥安全

在配置中使用环境变量,保障 API 密钥安全:

{
  "mcpServers": {
    "deepseek_r1": {
      "command": "node",
      "args": ["/path/to/deepseek-r1-mcp/build/index.js"],
      "env": {
        "DEEPSEEK_API_KEY": "your-api-key"
      }
    }
  }
}

如何在流程中使用该 MCP

在 FlowHunt 中使用 MCP

要将 MCP 服务器集成到 FlowHunt 工作流中,首先需在流程中添加 MCP 组件,并与您的 AI 智能体连接:

FlowHunt MCP flow

点击 MCP 组件打开配置面板,在系统 MCP 配置部分,按如下 JSON 格式填写您的 MCP 服务器信息:

{
  "deepseek_r1": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

配置完成后,AI 智能体即可将该 MCP 作为工具,访问其全部功能和能力。请记得将 “deepseek_r1” 替换为您实际的 MCP 服务器名称,并将 URL 替换为您自己的 MCP 服务器地址。


概览

部分是否可用说明/备注
概览
提示列表仓库未记录提示模板
资源列表仓库未记录显式 MCP 资源
工具列表高级文本生成工具
API 密钥安全配置中使用环境变量
采样支持(评测时不重要)未记录

| 支持 Roots | ⛔ | 未记录 |


根据现有文档,Deepseek R1 MCP 服务器提供了简洁、专注的实现,配置和使用都非常简单,但缺乏关于提示、资源或高级 MCP 功能(如 roots 和采样)的文档。这使其非常适合文本生成,但在复杂工作流方面功能有限。


MCP 评分

是否有 LICENSE✅ (MIT)
是否有至少一个工具
Fork 数量12
Star 数量58

常见问题

什么是 Deepseek R1 MCP 服务器?

它是一个模型上下文协议(MCP)服务器,作为 Claude Desktop(或其他平台)与 DeepSeek 高级语言模型(R1、V3)之间的桥梁,使您的 AI 工作流具备增强的文本生成、推理与自动化能力。

支持哪些模型?

服务器支持 Deepseek R1 和 DeepSeek V3——两者均针对大上下文窗口和复杂推理任务进行了优化。

主要应用场景有哪些?

包括高级文本生成(长文、技术或创意)、重逻辑推理、在 Claude Desktop 内无缝增强 AI 助手,以及通过 API 自动化内容创作或知识管理。

如何保护我的 API 密钥?

始终在 MCP 服务器配置中使用环境变量,防止 DeepSeek API 密钥意外泄露。

是否支持提示模板或资源?

仓库中未记录提示模板或专门的 MCP 资源;服务器专注于直接模型访问与集成。

上下文窗口有多大?

DeepSeek R1 提供 8192-token 的上下文窗口,可处理冗长和复杂的任务。

项目是开源的吗?

是的,采用 MIT 许可,并在 GitHub 上开源。

为您的 AI 注入 Deepseek R1 动力

将 FlowHunt 或 Claude Desktop 连接到 DeepSeek R1 强大的模型,解锁高级文本生成与推理。今天就开始打造更智能的工作流。

了解更多

DeepSeek MCP 服务器
DeepSeek MCP 服务器

DeepSeek MCP 服务器

DeepSeek MCP 服务器将 DeepSeek 的先进语言模型与兼容 MCP 的应用集成,提供安全、匿名的 API 访问,使在 Claude Desktop 和 FlowHunt 等工具中实现可扩展、保护隐私的 AI 工作流成为可能。...

2 分钟阅读
AI MCP Server +6
DeepSeek MCP 服务器
DeepSeek MCP 服务器

DeepSeek MCP 服务器

DeepSeek MCP 服务器作为安全代理,将 DeepSeek 的先进语言模型连接到兼容 MCP 的应用(如 Claude Desktop 或 FlowHunt),实现匿名 API 使用、工作流自动化和集中管理。...

2 分钟阅读
AI MCP +5
Deepseek Thinker MCP 服务器
Deepseek Thinker MCP 服务器

Deepseek Thinker MCP 服务器

Deepseek Thinker MCP 服务器将 Deepseek 模型推理集成到支持 MCP 的 AI 客户端(如 Claude Desktop),为增强型 AI 工作流提供先进的思维链输出。支持云端与本地推理,适合开发者调试、透明推理以及 AI 智能体能力提升。...

2 分钟阅读
AI MCP +5