
DeepSeek MCP 服务器
DeepSeek MCP 服务器将 DeepSeek 的先进语言模型与兼容 MCP 的应用集成,提供安全、匿名的 API 访问,使在 Claude Desktop 和 FlowHunt 等工具中实现可扩展、保护隐私的 AI 工作流成为可能。...
将 Deepseek 的透明推理与思维链 AI 输出引入您的 MCP 助手,支持云端和本地部署。
Deepseek Thinker MCP 服务器作为模型上下文协议(MCP)提供者,将 Deepseek 模型推理内容交付给支持 MCP 的 AI 客户端,例如 Claude Desktop。它使 AI 助手能够通过 Deepseek API 服务或本地 Ollama 服务器访问 Deepseek 的思考过程和推理输出。通过集成该服务器,开发者可以利用云端或本地推理能力,强化 AI 工作流中的聚焦推理。本服务器尤其适用于需要详细推理链或思维链(CoT)输出以指导下游 AI 任务的场景,非常适合高级开发、调试和 AI 智能体能力提升。
仓库或文档中未提及明确的提示模板。
文档或代码库中未详细列出明确的 MCP 资源。
originPrompt
(字符串)— 用户的原始提示。windsurf_config.json
)。mcpServers
对象中插入以下 JSON 片段:{
"deepseek-thinker": {
"command": "npx",
"args": [
"-y",
"deepseek-thinker-mcp"
],
"env": {
"API_KEY": "<Your API Key>",
"BASE_URL": "<Your Base URL>"
}
}
}
claude_desktop_config.json
。{
"mcpServers": {
"deepseek-thinker": {
"command": "npx",
"args": [
"-y",
"deepseek-thinker-mcp"
],
"env": {
"API_KEY": "<Your API Key>",
"BASE_URL": "<Your Base URL>"
}
}
}
}
{
"mcpServers": {
"deepseek-thinker": {
"command": "npx",
"args": [
"-y",
"deepseek-thinker-mcp"
],
"env": {
"API_KEY": "<Your API Key>",
"BASE_URL": "<Your Base URL>"
}
}
}
}
{
"mcpServers": {
"deepseek-thinker": {
"command": "npx",
"args": [
"-y",
"deepseek-thinker-mcp"
],
"env": {
"API_KEY": "<Your API Key>",
"BASE_URL": "<Your Base URL>"
}
}
}
}
对于所有平台,应通过 env
部分的环境变量提供 API 密钥和敏感配置信息。例如:
{
"mcpServers": {
"deepseek-thinker": {
"command": "npx",
"args": [
"-y",
"deepseek-thinker-mcp"
],
"env": {
"API_KEY": "<Your API Key>",
"BASE_URL": "<Your Base URL>"
}
}
}
}
如需本地 Ollama 模式,在 env
对象中设置 USE_OLLAMA
为 "true"
:
"env": {
"USE_OLLAMA": "true"
}
在 FlowHunt 中使用 MCP
要将 MCP 服务器集成到 FlowHunt 工作流中,首先添加 MCP 组件到您的流程,并将其连接至 AI 智能体:
点击 MCP 组件以打开配置面板。在系统 MCP 配置部分,使用如下 JSON 格式插入您的 MCP 服务器信息:
{
"deepseek-thinker": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
配置完成后,AI 智能体即可作为工具使用该 MCP,访问其全部功能和能力。请记得将 “deepseek-thinker” 替换为您的实际 MCP 服务器名称,并设置正确的 URL。
部分 | 可用性 | 说明/备注 |
---|---|---|
概览 | ✅ | |
提示模板列表 | ⛔ | 未记录提示模板 |
资源列表 | ⛔ | 未找到明确 MCP 资源 |
工具列表 | ✅ | get-deepseek-thinker 工具 |
API 密钥安全 | ✅ | 配置中使用环境变量 |
采样支持(评估时不重要) | ⛔ | 未提及 |
根据下表,Deepseek Thinker MCP 服务器为推理集成提供了专注的工具,易于设置,但缺乏详细提示模板和明确的资源定义。该项目开源,拥有一定的关注度,并支持安全凭证管理。作为 MCP 服务器,其整体完整性和实用性评分为 6/10。
是否有 LICENSE 文件 | ⛔(未检测到 LICENSE 文件) |
---|---|
是否有至少一个工具 | ✅ |
Fork 数量 | 12 |
Star 数量 | 51 |
它是一个模型上下文协议(MCP)服务器,将 Deepseek 模型推理引入支持 MCP 的 AI 客户端,提供思维链输出和透明模型思考,用于高级 AI 工作流与调试。
它提供 'get-deepseek-thinker' 工具,用于使用 Deepseek 模型进行推理并返回结构化推理输出。
可以,Deepseek Thinker 支持云端和本地(Ollama)推理。将环境变量 'USE_OLLAMA' 设置为 'true' 即可启用本地模式。
API 密钥和敏感信息应存储在 MCP 服务器配置的 'env' 环境变量部分,而不是硬编码在源文件中。
限制由底层 Deepseek 模型或 API 决定;超出限制可能会截断响应或导致错误,请相应调整配置和输入。
当前 Deepseek Thinker MCP 服务器文档未提供明确的提示模板或额外 MCP 资源。
DeepSeek MCP 服务器将 DeepSeek 的先进语言模型与兼容 MCP 的应用集成,提供安全、匿名的 API 访问,使在 Claude Desktop 和 FlowHunt 等工具中实现可扩展、保护隐私的 AI 工作流成为可能。...
DeepSeek MCP 服务器作为安全代理,将 DeepSeek 的先进语言模型连接到兼容 MCP 的应用(如 Claude Desktop 或 FlowHunt),实现匿名 API 使用、工作流自动化和集中管理。...
Deepseek R1 MCP 服务器可以将 DeepSeek 的高级语言模型(如 Deepseek R1 和 V3)无缝集成到 Claude Desktop 及其他支持的平台——为 AI 智能体赋予超大上下文窗口、强大推理和高级文本生成能力。...