
MCP Containerd 服务器
MCP Containerd 服务器将 Containerd 的运行时与模型上下文协议(MCP)连接起来,使 AI 代理和自动化工作流能够以编程方式管理容器、Pod 和镜像。它通过标准化的端点为 DevOps 和 AI 驱动的环境提供强大的容器生命周期和镜像管理能力。...

通过 mcp-server-docker MCP 服务器,让您的 AI 代理能够自然地编排、检查和管理 Docker 容器。
FlowHunt在您的内部系统和AI工具之间提供额外的安全层,让您能够精细控制从MCP服务器可访问哪些工具。托管在我们基础设施中的MCP服务器可以与FlowHunt的聊天机器人以及ChatGPT、Claude和各种AI编辑器等热门AI平台无缝集成。
mcp-server-docker MCP 服务器是一款专门的模型上下文协议(MCP)服务器,旨在为 AI 助手提供通过自然语言无缝管理 Docker 容器的能力。通过将 AI 代理与 Docker 连接,实现了自动化容器编排、自省、调试及持久化数据管理,全部基于标准化的 MCP 接口。该服务器赋能开发者、系统管理员及 AI 爱好者,无论本地还是远程均可与 Docker 环境交互,简化了诸如启动新服务、管理运行中容器、处理 Docker 卷等工作流程。MCP 与 Docker 的集成提升了生产力,减少了人工干预,也为 AI 驱动的开发与运维开辟了新途径。
mcpServers 对象中添加如下内容:"mcpServers": {
"mcp-server-docker": {
"command": "uvx",
"args": [
"mcp-server-docker"
]
}
}
~/Library/Application Support/Claude/claude_desktop_config.json。%APPDATA%/Claude/claude_desktop_config.json。mcpServers 部分添加如下内容:"mcpServers": {
"mcp-server-docker": {
"command": "uvx",
"args": [
"mcp-server-docker"
]
}
}
mcpServers 对象中插入以下 JSON:"mcpServers": {
"mcp-server-docker": {
"command": "uvx",
"args": [
"mcp-server-docker"
]
}
}
"mcpServers": {
"mcp-server-docker": {
"command": "uvx",
"args": [
"mcp-server-docker"
]
}
}
为保护 API 密钥,请在配置中使用环境变量。示例:
"mcpServers": {
"mcp-server-docker": {
"command": "uvx",
"args": [
"mcp-server-docker"
],
"env": {
"DOCKER_HOST": "${DOCKER_HOST_ENV_VAR}"
},
"inputs": {
"api_key": "${DOCKER_API_KEY_ENV_VAR}"
}
}
}
在 FlowHunt 中集成 MCP
要将 MCP 服务器集成进您的 FlowHunt 流程,请先在流程中添加 MCP 组件并将其连接到 AI 代理:
点击 MCP 组件以打开配置面板。在系统 MCP 配置部分,使用以下 JSON 格式插入您的 MCP 服务器信息:
{
"mcp-server-docker": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
配置完成后,AI 代理即可将该 MCP 作为工具使用,访问其全部功能与能力。请记得将 “mcp-server-docker” 替换为您的实际 MCP 服务器名称,并将 URL 替换为您自己的 MCP 服务器地址。
| 部分 | 可用性 | 详情/备注 |
|---|---|---|
| 概览 | ✅ | 说明及主要特性见 README.md |
| 提示词列表 | ✅ | docker_compose 提示词见 README.md |
| 资源列表 | ✅ | 容器、卷、网络作为数据类型和管理对象被引用 |
| 工具列表 | ✅ | docker_compose、容器自省、卷管理(源自功能) |
| 保护 API 密钥 | ✅ | 配置中提供了环境变量用例 |
| 采样支持(评估时不重要) | ⛔ | 仓库或文档中未提及 |
mcp-server-docker MCP 提供了清晰的文档、实用的提示词工作流和强大的 Docker 集成。其对自然语言编排与自省的专注,使其对开发者和 AI 运维尤为有价值。不过,关于高级 MCP 特性如 Roots 和 Sampling 的细节尚未给出。总体而言,这是一款成熟、高可用的 Docker 自动化 MCP 服务器。
| 是否有 LICENSE | ✅ (GPL-3.0) |
|---|---|
| 是否有至少一个工具 | ✅ |
| 分叉数 | 54 |
| Stars 数 | 490 |
它是一款模型上下文协议(MCP)服务器,使 AI 助手和聊天机器人能够通过自然语言管理 Docker 容器。可直接在 FlowHunt 或其他 AI 工具内实现容器编排、调试和数据管理。
mcp-server-docker MCP 服务器开放容器、卷与网络资源。AI 客户端可以以编程方式检查、创建、删除及管理这些资源。
常见用例包括自然语言容器部署、远程服务器管理、容器调试与自省、卷管理,以及对开源 Docker 应用的快速试验。
请将 API 密钥或 Docker 主机地址等敏感数据存储在环境变量中。配置示例演示了如何通过环境变量安全访问。
在流程中添加 MCP 组件,打开其配置面板,并在系统 MCP 配置部分使用提供的 JSON 格式插入您的 MCP 服务器信息。请根据您的部署情况更新服务器名称与 URL。
通过将 FlowHunt 或您喜欢的 AI 助手连接到 Docker,利用 mcp-server-docker MCP 服务器简化容器编排、调试和 DevOps 工作流。
MCP Containerd 服务器将 Containerd 的运行时与模型上下文协议(MCP)连接起来,使 AI 代理和自动化工作流能够以编程方式管理容器、Pod 和镜像。它通过标准化的端点为 DevOps 和 AI 驱动的环境提供强大的容器生命周期和镜像管理能力。...
mcp-server-commands MCP 服务器为 AI 助手与安全系统命令执行之间搭建桥梁,使 LLM 能够直接从 FlowHunt 及其它 AI 平台与 Shell 交互、自动化开发任务及文件管理。...
Kubernetes MCP 服务器连接 AI 助手与 Kubernetes 集群,实现通过标准化 MCP 命令进行 AI 驱动的自动化、资源管理和 DevOps 工作流。...
Cookie 同意
我们使用 cookie 来增强您的浏览体验并分析我们的流量。 See our privacy policy.


