
思维导图 MCP 服务器
Mindmap MCP 服务器将 Markdown 文档转化为交互式思维导图,使开发者、教育者和 AI 助手能够可视化层级信息、组织知识、并通过动态可视化方式优化内容规划。...
Think MCP 是一种 MCP(模型上下文协议)服务器实现,为代理型 AI 工作流提供了 “think” 工具以实现结构化推理。受 Anthropic 工程研究启发,该服务器让 AI 助手在复杂工具使用或多步推理时可以暂停并显式地记录自己的思考过程。通过集成 “think” 工具,代理能够分析工具输出、回溯决策、遵循详细策略并提升顺序决策能力。Think MCP 旨在通过暴露显式推理步骤,增强 AI 开发流程,使代理行为更加透明且可审计。该服务器简洁、基于标准,适合与 Claude 或其他代理型大语言模型集成。
thought
(字符串)。mcpServers
部分添加 Think MCP 服务器:{
"mcpServers": {
"think-mcp": {
"command": "uvx",
"args": ["think-mcp"],
"enabled": true
}
}
}
API 密钥安全配置(高级模式):
{
"mcpServers": {
"think-mcp": {
"command": "uvx",
"args": ["think-mcp", "--advanced"],
"enabled": true,
"env": {
"TAVILY_API_KEY": "YOUR_TAVILY_API_KEY"
}
}
}
}
{
"mcpServers": {
"think-mcp": {
"command": "uvx",
"args": ["think-mcp"],
"enabled": true
}
}
}
API 密钥:配置请参考上方 Windsurf 示例的 env
部分。
mcpServers
对象中添加 Think MCP:{
"mcpServers": {
"think-mcp": {
"command": "uvx",
"args": ["think-mcp"],
"enabled": true
}
}
}
{
"mcpServers": {
"think-mcp": {
"command": "uvx",
"args": ["think-mcp"],
"enabled": true
}
}
}
API 密钥安全配置:如上所示,使用 env
和 inputs
字段。
在 FlowHunt 中集成 MCP
要将 MCP 服务器集成到 FlowHunt 工作流中,首先在流程中添加 MCP 组件,并将其与 AI 代理连接:
点击 MCP 组件,打开配置面板。在系统 MCP 配置区域,使用如下 JSON 格式填写你的 MCP 服务器信息:
{
"think-mcp": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
配置完成后,AI 代理即可将该 MCP 作为工具,访问其全部功能。请注意将 “think-mcp” 替换为你的 MCP 服务器实际名称,并将 URL 替换为你自己的 MCP 服务器地址。
部分 | 可用性 | 详情/说明 |
---|---|---|
概览 | ✅ | |
提示词列表 | ⛔ | 未提供 |
资源列表 | ⛔ | 未提供 |
工具列表 | ✅ | think, criticize, plan, search |
API 密钥安全配置 | ✅ | 通过 env |
支持采样(评估时可忽略) | ⛔ | 未提及 |
从以上表格看,Think MCP 服务器简洁但专注:实现了核心的 “think” 推理工具,并在增强模式下扩展了部分高级工具。虽未提供提示词模板和资源暴露,但其工具集对代理型推理场景极具价值。README 说明清晰,安装配置简明。评分:6/10 —— 适合研究与原型开发,但功能上不如部分更丰富的 MCP 服务器。
是否有 LICENSE | ✅ (MIT) |
---|---|
至少有一个工具 | ✅ |
Fork 数量 | 4 |
Star 数量 | 27 |
Think MCP 服务器实现了一个用于代理型 AI 工作流结构化推理的“think”工具。它允许 AI 助手在复杂工具使用或多步推理时暂停并显式记录思考过程,提高决策透明度。高级模式下,还提供批判、规划和外部搜索等工具。
可用工具包括:think(记录思考)、criticize(代理自我批判)、plan(逐步规划)、search(API 外部搜索,需 TAVILY_API_KEY)。
Think MCP 可用于工具输出分析、逐步策略合规、顺序决策、代理自我批判,以及集成外部信息以实现健壮的代理工作流。
在 FlowHunt 流程中添加 MCP 组件,然后用你的 Think MCP 服务器信息进行配置。使用 MCP 配置面板中的 JSON 格式设置传输方式和 URL。
是的,Think MCP 采用 MIT 协议开源发布。
如需使用“search”等高级工具,请启用高级模式,并在 MCP 服务器环境配置中提供 TAVILY_API_KEY。
Mindmap MCP 服务器将 Markdown 文档转化为交互式思维导图,使开发者、教育者和 AI 助手能够可视化层级信息、组织知识、并通过动态可视化方式优化内容规划。...
Deepseek Thinker MCP 服务器将 Deepseek 模型推理集成到支持 MCP 的 AI 客户端(如 Claude Desktop),为增强型 AI 工作流提供先进的思维链输出。支持云端与本地推理,适合开发者调试、透明推理以及 AI 智能体能力提升。...
XMind MCP 服务器可无缝连接 AI 助手与 XMind 思维导图文件,实现高效查询、提取和分析思维导图,助力知识管理与任务自动化。...