
DeepSeek MCP 服务器
DeepSeek MCP 服务器将 DeepSeek 的先进语言模型与兼容 MCP 的应用集成,提供安全、匿名的 API 访问,使在 Claude Desktop 和 FlowHunt 等工具中实现可扩展、保护隐私的 AI 工作流成为可能。...
Deepseek R1 MCP 服务器是一种模型上下文协议(MCP)服务器实现,旨在将 Claude Desktop 与 DeepSeek 的高级语言模型(如 Deepseek R1 和 DeepSeek V3)连接。它作为 AI 助手与 DeepSeek 强大推理优化模型(具备 8192-token 上下文窗口)之间的桥梁,使 AI 智能体能够执行更强的自然语言理解和生成任务。开发者可借助 Deepseek R1 MCP 服务器,无缝集成这些模型到自身的工作流,实现高级文本生成、推理,并与外部数据源或 API 交互。该实现注重稳定、可靠和高效的集成,采用 Node.js/TypeScript,确保最佳兼容性与类型安全。
仓库中未记录任何提示模板。
仓库中未记录任何显式 MCP 资源。
git clone https://github.com/66julienmartin/MCP-server-Deepseek_R1.git
cd deepseek-r1-mcp
npm install
.env.exemple
为 .env
并设置您的 DeepSeek API 密钥。{
"mcpServers": {
"deepseek_r1": {
"command": "node",
"args": ["/path/to/deepseek-r1-mcp/build/index.js"],
"env": {
"DEEPSEEK_API_KEY": "your-api-key"
}
}
}
}
{
"mcpServers": {
"deepseek_r1": {
"command": "node",
"args": ["/path/to/deepseek-r1-mcp/build/index.js"],
"env": {
"DEEPSEEK_API_KEY": "your-api-key"
}
}
}
}
{
"mcpServers": {
"deepseek_r1": {
"command": "node",
"args": ["/path/to/deepseek-r1-mcp/build/index.js"],
"env": {
"DEEPSEEK_API_KEY": "your-api-key"
}
}
}
}
{
"mcpServers": {
"deepseek_r1": {
"command": "node",
"args": ["/path/to/deepseek-r1-mcp/build/index.js"],
"env": {
"DEEPSEEK_API_KEY": "your-api-key"
}
}
}
}
在配置中使用环境变量,保障 API 密钥安全:
{
"mcpServers": {
"deepseek_r1": {
"command": "node",
"args": ["/path/to/deepseek-r1-mcp/build/index.js"],
"env": {
"DEEPSEEK_API_KEY": "your-api-key"
}
}
}
}
在 FlowHunt 中使用 MCP
要将 MCP 服务器集成到 FlowHunt 工作流中,首先需在流程中添加 MCP 组件,并与您的 AI 智能体连接:
点击 MCP 组件打开配置面板,在系统 MCP 配置部分,按如下 JSON 格式填写您的 MCP 服务器信息:
{
"deepseek_r1": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
配置完成后,AI 智能体即可将该 MCP 作为工具,访问其全部功能和能力。请记得将 “deepseek_r1” 替换为您实际的 MCP 服务器名称,并将 URL 替换为您自己的 MCP 服务器地址。
部分 | 是否可用 | 说明/备注 |
---|---|---|
概览 | ✅ | |
提示列表 | ⛔ | 仓库未记录提示模板 |
资源列表 | ⛔ | 仓库未记录显式 MCP 资源 |
工具列表 | ✅ | 高级文本生成工具 |
API 密钥安全 | ✅ | 配置中使用环境变量 |
采样支持(评测时不重要) | ⛔ | 未记录 |
| 支持 Roots | ⛔ | 未记录 |
根据现有文档,Deepseek R1 MCP 服务器提供了简洁、专注的实现,配置和使用都非常简单,但缺乏关于提示、资源或高级 MCP 功能(如 roots 和采样)的文档。这使其非常适合文本生成,但在复杂工作流方面功能有限。
是否有 LICENSE | ✅ (MIT) |
---|---|
是否有至少一个工具 | ✅ |
Fork 数量 | 12 |
Star 数量 | 58 |
它是一个模型上下文协议(MCP)服务器,作为 Claude Desktop(或其他平台)与 DeepSeek 高级语言模型(R1、V3)之间的桥梁,使您的 AI 工作流具备增强的文本生成、推理与自动化能力。
服务器支持 Deepseek R1 和 DeepSeek V3——两者均针对大上下文窗口和复杂推理任务进行了优化。
包括高级文本生成(长文、技术或创意)、重逻辑推理、在 Claude Desktop 内无缝增强 AI 助手,以及通过 API 自动化内容创作或知识管理。
始终在 MCP 服务器配置中使用环境变量,防止 DeepSeek API 密钥意外泄露。
仓库中未记录提示模板或专门的 MCP 资源;服务器专注于直接模型访问与集成。
DeepSeek R1 提供 8192-token 的上下文窗口,可处理冗长和复杂的任务。
是的,采用 MIT 许可,并在 GitHub 上开源。
DeepSeek MCP 服务器将 DeepSeek 的先进语言模型与兼容 MCP 的应用集成,提供安全、匿名的 API 访问,使在 Claude Desktop 和 FlowHunt 等工具中实现可扩展、保护隐私的 AI 工作流成为可能。...
DeepSeek MCP 服务器作为安全代理,将 DeepSeek 的先进语言模型连接到兼容 MCP 的应用(如 Claude Desktop 或 FlowHunt),实现匿名 API 使用、工作流自动化和集中管理。...
Deepseek Thinker MCP 服务器将 Deepseek 模型推理集成到支持 MCP 的 AI 客户端(如 Claude Desktop),为增强型 AI 工作流提供先进的思维链输出。支持云端与本地推理,适合开发者调试、透明推理以及 AI 智能体能力提升。...
Cookie 同意
我们使用 cookie 来增强您的浏览体验并分析我们的流量。 See our privacy policy.