
mcp-server-commands MCP 服务器
mcp-server-commands MCP 服务器为 AI 助手与安全系统命令执行之间搭建桥梁,使 LLM 能够直接从 FlowHunt 及其它 AI 平台与 Shell 交互、自动化开发任务及文件管理。...
通过 FlowHunt 的代码沙箱 MCP 服务器,在基于 Docker 的沙箱中安全地运行、测试和管理代码。非常适合 AI、自动化和安全开发者工作流程。
代码沙箱 MCP(模型上下文协议)服务器是一款为 AI 助手和应用程序提供安全、隔离代码执行环境的专用工具。通过 Docker 容器化技术,它能够安全地运行代码,管理灵活、可丢弃的容器,以运行用户或 AI 生成的代码。这种沙箱方法保证了高度安全性,防止代码影响主机系统或泄露敏感数据。服务器支持多种开发工作流,包括运行 Shell 命令、文件传输和流式日志,所有操作都在自定义或用户选择的 Docker 镜像内完成。通过 MCP 协议暴露这些能力,代码沙箱 MCP 帮助 AI 开发者自动化、安全、高效地测试与管理代码,为 AI 驱动的代理和开发者工具解锁了高级功能。
仓库或文档中未明确提供提示模板。
仓库或文档中未明确描述 MCP 资源。
~/.windsurf/config.json
)。mcpServers
区块添加代码沙箱 MCP 服务器:{
"mcpServers": {
"code-sandbox": {
"command": "npx",
"args": ["@Automata-Labs-team/code-sandbox-mcp@latest"]
}
}
}
使用环境变量存储敏感密钥:
{
"mcpServers": {
"code-sandbox": {
"command": "npx",
"args": ["@Automata-Labs-team/code-sandbox-mcp@latest"],
"env": {
"API_KEY": "${API_KEY}"
},
"inputs": {
"apiKey": "${API_KEY}"
}
}
}
}
{
"mcpServers": {
"code-sandbox": {
"command": "npx",
"args": ["@Automata-Labs-team/code-sandbox-mcp@latest"]
}
}
}
{
"mcpServers": {
"code-sandbox": {
"command": "npx",
"args": ["@Automata-Labs-team/code-sandbox-mcp@latest"]
}
}
}
{
"mcpServers": {
"code-sandbox": {
"command": "npx",
"args": ["@Automata-Labs-team/code-sandbox-mcp@latest"]
}
}
}
注意: 始终使用环境变量来管理如 API 密钥等敏感配置项。详见上方如何在配置中设置
env
和inputs
的示例。
在 FlowHunt 中使用 MCP
要将 MCP 服务器集成到 FlowHunt 工作流中,先在流程中添加 MCP 组件,并将其连接到你的 AI 代理:
点击 MCP 组件打开配置面板。在系统 MCP 配置部分,使用如下 JSON 格式填入你的 MCP 服务器详情:
{
"code-sandbox": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
配置完成后,AI 代理即可作为工具调用该 MCP,具备全部功能和能力。请记得将 “code-sandbox” 替换为你实际的 MCP 服务器名称,并将 URL 替换为你的 MCP 服务器地址。
部分 | 可用性 | 详情/备注 |
---|---|---|
概览 | ✅ | |
提示词列表 | ⛔ | 未发现提示模板 |
资源列表 | ⛔ | 未发现明确 MCP 资源 |
工具列表 | ✅ | 容器管理、文件操作、命令执行、日志等 |
API 密钥保护 | ✅ | 提供了在 JSON 配置中使用环境变量的示例 |
采样支持(评估时可忽略) | ⛔ | 未提及采样支持 |
该 MCP 服务器通过容器化提供了强大且基础的安全代码执行功能,并有实用的配置说明。不过,缺乏对 MCP 提示模板和资源原语的明确文档,限制了其在部分 MCP 场景下的即插即用性。拥有明确的开源协议、活跃的开发和良好的 star/fork 数,提升了其可靠性。未提及 root 和采样支持。
评分:7/10。 非常适合安全代码执行和开发者工作流,若能补充更丰富的 MCP 原生文档及资源/提示定义将更佳。
是否有 LICENSE | ✅ (MIT) |
---|---|
是否具有至少一个工具 | ✅ |
Fork 数量 | 29 |
Star 数量 | 203 |
代码沙箱 MCP 服务器是一款为运行代码提供安全、隔离 Docker 容器的工具。它使 AI 助手和开发者工具能够安全高效地执行、测试和管理代码,无需担心主机系统的安全风险。
它提供灵活的 Docker 容器管理、自定义环境支持、文件操作、任意 Shell 命令执行和实时日志功能——所有功能均可通过 MCP 协议访问。
主要用于安全代码执行、自动化测试、AI 代理编码任务、教育沙箱,以及集成到 CI/CD 流水线中。
设置过程包括将服务器添加到你喜欢的客户端(Windsurf、Claude、Cursor 或 Cline)配置中,确保 Docker 正在运行,然后重启客户端。详细步骤请参见上方配置示例。
通过在可丢弃的 Docker 容器中运行所有代码,服务器确保代码无法影响主机系统或泄露敏感数据,提供强大的隔离与安全性。
支持。你可以使用任意 Docker 镜像作为执行环境,从而根据特定语言或项目需求定制沙箱。
文档中未包含明确的提示模板或 MCP 资源原语,但所有核心代码执行工具均已支持。
该服务器采用 MIT 协议,拥有 203 个 star 和 29 个 fork,展现了活跃的开发和社区应用。
mcp-server-commands MCP 服务器为 AI 助手与安全系统命令执行之间搭建桥梁,使 LLM 能够直接从 FlowHunt 及其它 AI 平台与 Shell 交互、自动化开发任务及文件管理。...
mcp-server-docker MCP 服务器使 AI 助手能够通过自然语言管理 Docker 容器。将此 MCP 集成到 FlowHunt 及其他客户端,实现容器自动编排、自省、调试和持久化数据管理。...
MCP Containerd 服务器将 Containerd 的运行时与模型上下文协议(MCP)连接起来,使 AI 代理和自动化工作流能够以编程方式管理容器、Pod 和镜像。它通过标准化的端点为 DevOps 和 AI 驱动的环境提供强大的容器生命周期和镜像管理能力。...