
人类参与(Human-In-the-Loop)MCP 服务器
FlowHunt 的人类参与(Human-In-the-Loop)MCP 服务器通过实时交互式 GUI 对话框,无缝将人工判断、审批和输入集成到 AI 工作流中,提升安全性、合规性和定制化程度。...

interactive-mcp 是一款跨平台的 MCP 服务器,让开发者能够与 AI 代理实时协作,实现动态、具备上下文感知和人机协作的编程及工作流自动化。
FlowHunt在您的内部系统和AI工具之间提供额外的安全层,让您能够精细控制从MCP服务器可访问哪些工具。托管在我们基础设施中的MCP服务器可以与FlowHunt的聊天机器人以及ChatGPT、Claude和各种AI编辑器等热门AI平台无缝集成。
interactive-mcp MCP(模型上下文协议)服务器是一款本地、跨平台的工具,用于促进 AI 代理与用户之间的无缝交互。它的主要目标是实现“人机协作”工作流,让开发者与 AI 助手能够互动协作。interactive-mcp 作为桥梁,将 AI 模型与外部系统(如数据库、文件或 API)连接,从而提升开发效率。它尤其适用于需要实时反馈或人工干预的环境,支持多种平台,并为集成自定义操作、prompt 模板和资源暴露提供可扩展的基础。开发者因此可以构建更具动态性、上下文感知能力的 AI 工具和工作流。
在仓库中未找到有关 prompt 模板的信息。
在仓库中未发现 interactive-mcp 服务器暴露的具体资源信息。
从当前文件或文档中无法确定明确的工具列表。
windsurf.config.json)。mcpServers 对象中插入服务器条目。示例 JSON 配置:
{
"mcpServers": {
"interactive-mcp": {
"command": "npx",
"args": ["@ttommyth/interactive-mcp@latest"]
}
}
}
claude.config.json)。mcpServers 部分添加服务器。示例 JSON 配置:
{
"mcpServers": {
"interactive-mcp": {
"command": "npx",
"args": ["@ttommyth/interactive-mcp@latest"]
}
}
}
mcpServers 对象。示例 JSON 配置:
{
"mcpServers": {
"interactive-mcp": {
"command": "npx",
"args": ["@ttommyth/interactive-mcp@latest"]
}
}
}
cline.config.json 或类似文件。mcpServers 下插入服务器信息。示例 JSON 配置:
{
"mcpServers": {
"interactive-mcp": {
"command": "npx",
"args": ["@ttommyth/interactive-mcp@latest"]
}
}
}
使用环境变量保护 API 密钥:
通过 env 属性添加敏感变量:
{
"mcpServers": {
"interactive-mcp": {
"command": "npx",
"args": ["@ttommyth/interactive-mcp@latest"],
"env": {
"API_KEY": "${API_KEY_FROM_ENV}"
},
"inputs": {
"apiKey": "${API_KEY_FROM_ENV}"
}
}
}
}
在 FlowHunt 中集成 MCP
要在 FlowHunt 工作流中集成 MCP 服务器,请先添加 MCP 组件至你的流程,并将其与 AI 代理连接:
点击 MCP 组件打开配置面板。在系统 MCP 配置部分,使用如下 JSON 格式粘贴你的 MCP 服务器信息:
{
"interactive-mcp": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
配置完成后,AI 代理即可作为工具调用该 MCP,并拥有其全部功能。请记得根据实际情况将“interactive-mcp”替换为你的 MCP 服务器名称,并将 URL 替换为你自己的服务器地址。
| 部分 | 可用性 | 备注 |
|---|---|---|
| 概述 | ✅ | 在 README.md 中找到 |
| Prompt 列表 | ⛔ | 未找到 |
| 资源列表 | ⛔ | 未找到 |
| 工具列表 | ⛔ | 未找到 |
| API 密钥安全 | ✅ | 见上文设置说明 |
| 采样支持(评估中重要性较低) | ⛔ | 未找到 |
虽然 interactive-mcp 展现了有前景的人机协作方案,并且活跃开发、社区采用度较高(stars/forks),但因缺乏对 prompt、工具和资源的明确文档,限制了其在高阶 MCP 工作流中的即时可用性。其安装和设置流程简单、对常见平台支持良好。
| 是否有 LICENSE | ✅ (MIT) |
|---|---|
| 是否有至少一个工具 | ⛔ |
| Fork 数量 | 19 |
| Star 数量 | 219 |
interactive-mcp 是一款本地、跨平台的 Model Context Protocol 服务器,旨在连接 AI 代理与用户及外部系统。它擅长实现人机协作工作流、实时反馈以及自定义动作集成,助力打造动态的 AI 工具。
interactive-mcp 非常适合与 AI 协作编程、跨平台 AI 工作流、AI 增强的代码审查、自定义集成原型设计,并通过结合自动化与人工输入提升效率。
在 FlowHunt 流程中添加 MCP 组件,打开配置面板,并在系统配置中插入你的 MCP 服务器信息。使用提供的 JSON 片段并将 URL 指向你的服务器。
将敏感的 API 密钥作为环境变量存储在你的配置文件中,通过 `env` 属性引用它们,在 MCP 服务器设置中调用,以避免在代码中暴露密钥。
当前仓库未记录明确的 prompt 模板或工具。该服务器设计为可扩展的基础,便于构建自定义工作流与集成。
interactive-mcp 是跨平台的,支持常见的开发环境和操作系统。兼容 Windsurf、Claude、Cursor 和 Cline 等工具。
使用 interactive-mcp MCP 服务器,提升你的生产力,开发更智能、更具交互性的 AI 工具。立即集成到 FlowHunt 或你喜欢的平台。
FlowHunt 的人类参与(Human-In-the-Loop)MCP 服务器通过实时交互式 GUI 对话框,无缝将人工判断、审批和输入集成到 AI 工作流中,提升安全性、合规性和定制化程度。...
Intercom MCP 服务器连接 AI 助手与 Intercom,实现高级客户支持自动化、分析,并通过符合 MCP 的工作流无缝访问 Intercom 对话和工单。...
模型上下文协议(MCP)服务器将 AI 助手与外部数据源、API 和服务连接起来,实现复杂工作流的无缝集成,并在 FlowHunt 中安全管理开发任务。...
Cookie 同意
我们使用 cookie 来增强您的浏览体验并分析我们的流量。 See our privacy policy.


