mcp-server-docker MCP 服务器

mcp-server-docker MCP 服务器

通过 mcp-server-docker MCP 服务器,让您的 AI 代理能够自然地编排、检查和管理 Docker 容器。

“mcp-server-docker” MCP 服务器有什么作用?

mcp-server-docker MCP 服务器是一款专门的模型上下文协议(MCP)服务器,旨在为 AI 助手提供通过自然语言无缝管理 Docker 容器的能力。通过将 AI 代理与 Docker 连接,实现了自动化容器编排、自省、调试及持久化数据管理,全部基于标准化的 MCP 接口。该服务器赋能开发者、系统管理员及 AI 爱好者,无论本地还是远程均可与 Docker 环境交互,简化了诸如启动新服务、管理运行中容器、处理 Docker 卷等工作流程。MCP 与 Docker 的集成提升了生产力,减少了人工干预,也为 AI 驱动的开发与运维开辟了新途径。

提示词列表

  • docker_compose
    用自然语言编写和管理容器。此提示词引导大语言模型(LLM)完成计划/应用流程:您描述想要的容器及配置,LLM 生成方案,您可在应用前进行审核、批准或修改。

资源列表

  • 容器
    显示关于正在运行和可用 Docker 容器的信息,允许 AI 客户端检查或与其交互。

  • 提供对 Docker 卷的访问,可用于管理持久化数据,使客户端能够列出、创建或移除卷。
  • 网络
    展示可用的 Docker 网络,供客户端连接容器或管理网络设置使用。

工具列表

  • docker_compose
    允许用户通过自然语言指令创建和编排多容器 Docker 应用。
  • container_introspection
    支持对运行中容器的自省和调试,提供状态、配置及日志等详细信息。
  • volume_management
    便于管理 Docker 卷,包括创建、列出及删除,实现持久化存储管理。

此 MCP 服务器的使用场景

  • 自然语言容器部署
    仅需用普通语言描述需求,即可部署和管理 Docker 容器,优化开发与测试流程。
  • 远程服务器管理
    连接远程 Docker 引擎,管理 Web 服务器或云端负载,简化管理员的运维工作。
  • 容器调试与自省
    利用 AI 检查、调试和管理运行中的容器,减少排查和处理故障所需时间。
  • 持久化数据管理
    直接通过 AI 工具操作 Docker 卷,轻松管理、备份及清理持久化数据。
  • 开源应用试验
    快速启动并测试基于 Docker 的开源应用,助力发烧友和开发者高效评估新工具。

如何配置

Windsurf

  1. 确保已安装 Node.js 和 Windsurf 应用。
  2. 打开您的 Windsurf 配置文件。
  3. mcpServers 对象中添加如下内容:
    "mcpServers": {
      "mcp-server-docker": {
        "command": "uvx",
        "args": [
          "mcp-server-docker"
        ]
      }
    }
    
  4. 保存配置并重启 Windsurf。
  5. 验证服务器是否正在运行且可访问。

Claude

  1. 如未安装 uv,请先安装。
  2. 在 MacOS 下,找到 ~/Library/Application Support/Claude/claude_desktop_config.json
    在 Windows 下,找到 %APPDATA%/Claude/claude_desktop_config.json
  3. mcpServers 部分添加如下内容:
    "mcpServers": {
      "mcp-server-docker": {
        "command": "uvx",
        "args": [
          "mcp-server-docker"
        ]
      }
    }
    
  4. 保存文件并重启 Claude。
  5. 确认 MCP 服务器已被列出且可用。

Cursor

  1. 安装 uv
  2. 打开 Cursor 的配置文件。
  3. mcpServers 对象中插入以下 JSON:
    "mcpServers": {
      "mcp-server-docker": {
        "command": "uvx",
        "args": [
          "mcp-server-docker"
        ]
      }
    }
    
  4. 保存并重启 Cursor。
  5. 检查 Docker MCP 服务器是否出现在工具列表中。

Cline

  1. 确保已安装 Node.js 和 uv。
  2. 编辑 Cline 的配置文件。
  3. 添加 MCP 服务器条目:
    "mcpServers": {
      "mcp-server-docker": {
        "command": "uvx",
        "args": [
          "mcp-server-docker"
        ]
      }
    }
    
  4. 保存更改并重启 Cline。
  5. 通过运行测试命令验证 MCP 服务器是否正常工作。

保护 API 密钥

为保护 API 密钥,请在配置中使用环境变量。示例:

"mcpServers": {
  "mcp-server-docker": {
    "command": "uvx",
    "args": [
      "mcp-server-docker"
    ],
    "env": {
      "DOCKER_HOST": "${DOCKER_HOST_ENV_VAR}"
    },
    "inputs": {
      "api_key": "${DOCKER_API_KEY_ENV_VAR}"
    }
  }
}

如何在流程中使用此 MCP

在 FlowHunt 中集成 MCP

要将 MCP 服务器集成进您的 FlowHunt 流程,请先在流程中添加 MCP 组件并将其连接到 AI 代理:

FlowHunt MCP flow

点击 MCP 组件以打开配置面板。在系统 MCP 配置部分,使用以下 JSON 格式插入您的 MCP 服务器信息:

{
  "mcp-server-docker": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

配置完成后,AI 代理即可将该 MCP 作为工具使用,访问其全部功能与能力。请记得将 “mcp-server-docker” 替换为您的实际 MCP 服务器名称,并将 URL 替换为您自己的 MCP 服务器地址。


概览

部分可用性详情/备注
概览说明及主要特性见 README.md
提示词列表docker_compose 提示词见 README.md
资源列表容器、卷、网络作为数据类型和管理对象被引用
工具列表docker_compose、容器自省、卷管理(源自功能)
保护 API 密钥配置中提供了环境变量用例
采样支持(评估时不重要)仓库或文档中未提及

我们的观点

mcp-server-docker MCP 提供了清晰的文档、实用的提示词工作流和强大的 Docker 集成。其对自然语言编排与自省的专注,使其对开发者和 AI 运维尤为有价值。不过,关于高级 MCP 特性如 Roots 和 Sampling 的细节尚未给出。总体而言,这是一款成熟、高可用的 Docker 自动化 MCP 服务器。

MCP 评分

是否有 LICENSE✅ (GPL-3.0)
是否有至少一个工具
分叉数54
Stars 数490

常见问题

什么是 mcp-server-docker MCP 服务器?

它是一款模型上下文协议(MCP)服务器,使 AI 助手和聊天机器人能够通过自然语言管理 Docker 容器。可直接在 FlowHunt 或其他 AI 工具内实现容器编排、调试和数据管理。

哪些 Docker 资源可以被管理?

mcp-server-docker MCP 服务器开放容器、卷与网络资源。AI 客户端可以以编程方式检查、创建、删除及管理这些资源。

此 MCP 的典型用例有哪些?

常见用例包括自然语言容器部署、远程服务器管理、容器调试与自省、卷管理,以及对开源 Docker 应用的快速试验。

如何保护 API 密钥或 Docker 端点?

请将 API 密钥或 Docker 主机地址等敏感数据存储在环境变量中。配置示例演示了如何通过环境变量安全访问。

如何将 mcp-server-docker 添加到我的 FlowHunt 流程?

在流程中添加 MCP 组件,打开其配置面板,并在系统 MCP 配置部分使用提供的 JSON 格式插入您的 MCP 服务器信息。请根据您的部署情况更新服务器名称与 URL。

用 AI 与 mcp-server-docker 自动化 Docker

通过将 FlowHunt 或您喜欢的 AI 助手连接到 Docker,利用 mcp-server-docker MCP 服务器简化容器编排、调试和 DevOps 工作流。

了解更多

MCP Containerd 服务器
MCP Containerd 服务器

MCP Containerd 服务器

MCP Containerd 服务器将 Containerd 的运行时与模型上下文协议(MCP)连接起来,使 AI 代理和自动化工作流能够以编程方式管理容器、Pod 和镜像。它通过标准化的端点为 DevOps 和 AI 驱动的环境提供强大的容器生命周期和镜像管理能力。...

2 分钟阅读
Containerd MCP +6
mcp-server-commands MCP 服务器
mcp-server-commands MCP 服务器

mcp-server-commands MCP 服务器

mcp-server-commands MCP 服务器为 AI 助手与安全系统命令执行之间搭建桥梁,使 LLM 能够直接从 FlowHunt 及其它 AI 平台与 Shell 交互、自动化开发任务及文件管理。...

2 分钟阅读
AI MCP Server +5
Kubernetes MCP 服务器集成
Kubernetes MCP 服务器集成

Kubernetes MCP 服务器集成

Kubernetes MCP 服务器连接 AI 助手与 Kubernetes 集群,实现通过标准化 MCP 命令进行 AI 驱动的自动化、资源管理和 DevOps 工作流。...

2 分钟阅读
AI Kubernetes +4