
DeepSeek MCP 服务器
DeepSeek MCP 服务器将 DeepSeek 的先进语言模型与兼容 MCP 的应用集成,提供安全、匿名的 API 访问,使在 Claude Desktop 和 FlowHunt 等工具中实现可扩展、保护隐私的 AI 工作流成为可能。...
使用深度研究 MCP 服务器自动化深入研究与报告,专为学术、市场和技术调查而设计,AI 驱动合成权威信息。
深度研究 MCP 服务器旨在通过利用 AI 能力,简化复杂主题的全面研究流程。作为 AI 助手与外部数据源之间的桥梁,它自动化探索研究问题、识别关键概念以及生成结构化、有充分引用的报告。该服务器集成了网页搜索、内容分析和报告合成,协助用户扩展问题、生成子问题、收集相关资源,并得出基于证据的结论。其主要作用是赋能开发者和研究人员进行深入调查、挖掘权威来源,并自动化整理和呈现研究发现的工作流。
在可用文档或仓库文件中未描述明确的资源。
在可用仓库文件(包括 server.py
或同等文件)中未列出明确的工具。
mcpServers
对象中添加深度研究 MCP 服务器,示例代码如下:"mcpServers": {
"mcp-server-deep-research": {
"command": "uvx",
"args": [
"--directory",
"/path/to/mcp-server-deep-research",
"run",
"mcp-server-deep-research"
]
}
}
python setup.py
~/Library/Application Support/Claude/claude_desktop_config.json
%APPDATA%/Claude/claude_desktop_config.json
mcpServers
配置:"mcpServers": {
"mcp-server-deep-research": {
"command": "uvx",
"args": [
"--directory",
"/path/to/mcp-server-deep-research",
"run",
"mcp-server-deep-research"
]
}
}
deep-research
提示模版开始使用。"mcpServers": {
"mcp-server-deep-research": {
"command": "uvx",
"args": [
"--directory",
"/path/to/mcp-server-deep-research",
"run",
"mcp-server-deep-research"
]
}
}
"mcpServers": {
"mcp-server-deep-research": {
"command": "uvx",
"args": [
"--directory",
"/path/to/mcp-server-deep-research",
"run",
"mcp-server-deep-research"
]
}
}
为保障 API 密钥安全,请在配置中使用环境变量。例如:
"mcpServers": {
"mcp-server-deep-research": {
"command": "uvx",
"args": [
"--directory",
"/path/to/mcp-server-deep-research",
"run",
"mcp-server-deep-research"
],
"env": {
"API_KEY": "${API_KEY}"
},
"inputs": {
"api_key": "${API_KEY}"
}
}
}
在 FlowHunt 中使用 MCP
要将 MCP 服务器集成到 FlowHunt 工作流中,首先将 MCP 组件添加到您的流程,并将其连接到您的 AI 代理:
点击 MCP 组件以打开配置面板。在系统 MCP 配置部分,按照如下 JSON 格式插入您的 MCP 服务器信息:
{
"mcp-server-deep-research": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
配置完成后,AI 代理即可作为工具使用此 MCP,获得其全部功能与能力。请记得将 “mcp-server-deep-research” 替换为您实际的 MCP 服务器名称,并将 URL 替换为您自己的 MCP 服务器地址。
部分 | 可用性 | 详情/备注 |
---|---|---|
概览 | ✅ | 在 README 中找到描述 |
提示词列表 | ✅ | 明确列出了 “deep-research” 提示 |
资源列表 | ⛔ | 未发现明确的资源定义 |
工具列表 | ⛔ | 代码或 README 中未发现明确的工具定义 |
保障 API 密钥安全 | ✅ | 找到带 env/inputs 的示例配置 |
采样支持(评估时不重要) | ⛔ | 未提及采样支持 |
该 MCP 服务器文档清晰,工作流描述完善,提供了提示模版,但缺乏资源、工具或如根节点、采样等高级 MCP 特性的详细信息。API 或工具的缺失限制了其在某些高级场景下的灵活性。总体而言,非常适合结构化研究流程,但不适用于高度定制化集成场景。
是否有 LICENSE | ✅ (MIT) |
---|---|
是否有至少一个工具 | ⛔ |
Fork 数量 | 13 |
Star 数量 | 119 |
深度研究 MCP 服务器是一款 AI 驱动的工具,可自动化全面的研究流程。它协助扩展问题、生成子问题、执行网页搜索、分析内容并合成有充分引用的报告,非常适合学术、市场和技术研究。
深度研究 MCP 服务器适用于学术研究辅助、市场或趋势分析、技术主题总结、内容创作支持和决策支持——帮助挖掘关键概念、权威来源和基于证据的结论。
设置方法包括将服务器作为 MCP 服务器添加到您首选客户端的配置中,使用 uvx 指定命令、目录和参数。针对 Windsurf、Claude Desktop、Cursor 和 Cline 客户端均有详细设置说明。
请在 MCP 服务器配置中使用环境变量安全存储敏感数据,例如 API 密钥。在 JSON 配置的 'env' 和 'inputs' 部分引用您的环境变量。
它包含针对结构化、全面研究的 'deep-research' 提示,但文档中未列出服务器内的具体工具或资源。
将 MCP 组件添加到您的 FlowHunt 流程,打开配置, 并在系统 MCP 配置部分插入深度研究 MCP 服务器的详细信息。这样您的 AI 代理就可利用其研究与报告能力。
DeepSeek MCP 服务器将 DeepSeek 的先进语言模型与兼容 MCP 的应用集成,提供安全、匿名的 API 访问,使在 Claude Desktop 和 FlowHunt 等工具中实现可扩展、保护隐私的 AI 工作流成为可能。...
DeepL MCP 服务器通过 DeepL API 在 AI 工作流中集成了先进的翻译、改写和语言检测功能。它为 FlowHunt 及其他 AI 助手赋予实时多语言能力、自动语言识别和语气定制,实现无缝的全球交流。...
学术型 MCP 服务器为 AI 智能体提供对学术文章检索和学术元数据获取的直接访问,助力 FlowHunt 中的科研、教育和事实核查流程。...