DeepSeek MCP 服务器

DeepSeek MCP 服务器

通过安全、匿名的代理服务器,将 DeepSeek 强大的语言模型与您喜欢的兼容 MCP 的客户端无缝连接,实现 AI 集成与工作流自动化。

“DeepSeek” MCP 服务器的作用是什么?

DeepSeek MCP 服务器是一款 Model Context Protocol (MCP) 服务器,旨在将 DeepSeek 的先进语言模型与兼容 MCP 的应用(如 Claude Desktop)进行桥接。通过作为代理,允许 AI 助手与 DeepSeek API 交互,同时保持用户匿名性——API 只可见代理。该集成为开发者带来了更强大的工作流体验,使其可无缝访问 DeepSeek 的强大自然语言能力。通过 MCP 服务器,应用和 AI 代理可用于语言理解、文本生成、基于 API 的自动化等任务,全部基于标准化、安全且可扩展的协议框架内。

提示模板列表

仓库及文档中未提及任何提示模板。

资源列表

仓库及文档中未描述明确的 MCP 资源。

工具列表

在可用文件或 README 中未发现任何工具定义(如 query_database、read_write_file、call_api)。

本 MCP 服务器的使用场景

  • 匿名模型访问
    在任何兼容 MCP 的客户端中使用 DeepSeek 大语言模型,无需暴露您的 API 密钥或用户身份。服务器作为安全代理层。
  • 与 Claude Desktop 集成
    将 DeepSeek 模型接入 Claude Desktop 或类似工具,结合其界面和工作流增强功能,利用 DeepSeek 的强大能力。
  • API 集中管理
    通过 MCP 服务器集中管理 DeepSeek API 的访问和使用,简化部署与使用追踪。
  • 工作流自动化
    通过标准化的 MCP 交互,使 AI 代理自动化文本处理、摘要或内容生成等工作流。
  • 开发者测试与原型开发
    利用 DeepSeek 模型在本地或云环境中快速原型和测试 AI 功能,降低搭建复杂度。

如何设置

Windsurf

  1. 确保您的系统已安装 Node.js。
  2. 找到 Windsurf 配置文件(通常为 windsurf.config.json)。
  3. 添加 DeepSeek MCP Server 包:
    "mcpServers": {
      "deepseek-mcp": {
        "command": "npx",
        "args": ["deepseek-mcp-server", "start"]
      }
    }
    
  4. 保存配置文件。
  5. 重启 Windsurf 并确认 DeepSeek MCP 服务器已运行。

Claude

  1. 确保已安装 Node.js。
  2. 打开 Claude 配置文件。
  3. 添加 DeepSeek MCP Server:
    "mcpServers": {
      "deepseek-mcp": {
        "command": "npx",
        "args": ["deepseek-mcp-server", "start"]
      }
    }
    
  4. 保存并重启 Claude。
  5. 确认服务器连接已激活。

Cursor

  1. 如果尚未安装,请先安装 Node.js。
  2. 打开 cursor.config.json
  3. 添加 DeepSeek MCP Server 配置:
    "mcpServers": {
      "deepseek-mcp": {
        "command": "npx",
        "args": ["deepseek-mcp-server", "start"]
      }
    }
    
  4. 保存文件并重启 Cursor。
  5. 在工具列表中检查 MCP 服务器。

Cline

  1. 确保已设置好 Node.js。
  2. 编辑 cline.config.json 文件。
  3. 插入如下内容:
    "mcpServers": {
      "deepseek-mcp": {
        "command": "npx",
        "args": ["deepseek-mcp-server", "start"]
      }
    }
    
  4. 保存并重启 Cline。
  5. 验证 DeepSeek MCP 服务器是否可用。

安全存储 API 密钥

请通过环境变量配置敏感信息(如 API 密钥)。示例:

"mcpServers": {
  "deepseek-mcp": {
    "command": "npx",
    "args": ["deepseek-mcp-server", "start"],
    "env": {
      "DEEPSEEK_API_KEY": "${DEEPSEEK_API_KEY}"
    },
    "inputs": {
      "api_key": "${DEEPSEEK_API_KEY}"
    }
  }
}

如何在流程中使用此 MCP

FlowHunt 中使用 MCP

要将 MCP 服务器集成到您的 FlowHunt 工作流中,首先在流程中添加 MCP 组件,并将其连接到您的 AI 代理:

FlowHunt MCP flow

点击 MCP 组件以打开配置面板。在系统 MCP 配置部分,按如下 JSON 格式填写您的 MCP 服务器信息:

{
  "deepseek-mcp": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

配置后,AI 代理即可作为工具使用该 MCP,获得其全部功能和能力。请记得将 “deepseek-mcp” 替换为您的实际 MCP 服务器名称,并将 URL 换成您自己的 MCP 服务器地址。


概览

部分是否可用详情/备注
概览在 README.md 中找到
提示模板列表未发现提示模板
资源列表未列出明确资源
工具列表服务器文件中未定义工具
安全存储 API 密钥存在 .env.example,提供了说明
采样支持(评估时次要考虑)未提及

Roots 支持:未提及

采样支持:未提及


综上,DeepSeek MCP 服务器主要作为 DeepSeek API 的代理适配器,提供了完善的搭建及安全密钥管理文档,但缺乏明确的提示、资源或工具示例。它最适合需要在 MCP 兼容环境中轻松、匿名访问 DeepSeek 模型的用户。

我们的看法

该 MCP 服务器在搭建和安全性方面文档完善,但在高级 MCP 原语(如提示、资源、工具)示例方面有所欠缺。其主要价值在于便捷接入 DeepSeek 模型。项目活跃并受到社区好评。

MCP 评分

是否有 LICENSE✅ (MIT)
至少有一个工具
Fork 数量32
Star 数量242

常见问题

什么是 DeepSeek MCP 服务器?

DeepSeek MCP 服务器是一种代理,可将 DeepSeek 的语言模型连接到兼容 MCP 的客户端(如 FlowHunt 或 Claude Desktop)。它允许应用和代理在不暴露 API 密钥和身份给第三方服务的情况下,使用 DeepSeek 模型进行语言任务。

DeepSeek MCP 服务器如何增强隐私保护?

DeepSeek MCP 服务器作为安全代理,确保您的 API 密钥和用户身份永远不会暴露给 DeepSeek API,提供隐私和集中访问管理。

该 MCP 服务器的典型使用场景有哪些?

您可以使用 DeepSeek MCP 服务器进行匿名模型访问,将 DeepSeek 集成到桌面客户端,集中管理 API 使用,自动化工作流,以及快速原型开发 AI 功能。

如何安全地将我的 DeepSeek API 密钥提供给服务器?

建议使用环境变量存储您的 DeepSeek API 密钥。MCP 服务器从您的环境配置中读取密钥,确保敏感数据不会以明文暴露。

DeepSeek MCP 服务器是否定义了自定义工具或提示?

没有提供明确的提示模板或工具定义。该服务器主要作为代理,使 MCP 兼容环境下可基本使用模型。

用 FlowHunt 试用 DeepSeek MCP 服务器

安全、轻松地将 DeepSeek 模型集成到您的 MCP 工作流中。立即在您的项目中使用先进的语言模型。

了解更多

DeepSeek MCP 服务器
DeepSeek MCP 服务器

DeepSeek MCP 服务器

DeepSeek MCP 服务器将 DeepSeek 的先进语言模型与兼容 MCP 的应用集成,提供安全、匿名的 API 访问,使在 Claude Desktop 和 FlowHunt 等工具中实现可扩展、保护隐私的 AI 工作流成为可能。...

2 分钟阅读
AI MCP Server +6
Deepseek Thinker MCP 服务器
Deepseek Thinker MCP 服务器

Deepseek Thinker MCP 服务器

Deepseek Thinker MCP 服务器将 Deepseek 模型推理集成到支持 MCP 的 AI 客户端(如 Claude Desktop),为增强型 AI 工作流提供先进的思维链输出。支持云端与本地推理,适合开发者调试、透明推理以及 AI 智能体能力提升。...

2 分钟阅读
AI MCP +5
Deepseek R1 MCP 服务器
Deepseek R1 MCP 服务器

Deepseek R1 MCP 服务器

Deepseek R1 MCP 服务器可以将 DeepSeek 的高级语言模型(如 Deepseek R1 和 V3)无缝集成到 Claude Desktop 及其他支持的平台——为 AI 智能体赋予超大上下文窗口、强大推理和高级文本生成能力。...

2 分钟阅读
AI MCP Server +4