ZenML MCP 服务器集成

ZenML MCP 服务器集成

使用 ZenML MCP 服务器,将您的 AI 代理连接到 ZenML 的 MLOps 基础设施,实现实时流水线控制、产物探索与高效 ML 工作流。

“ZenML” MCP 服务器的作用是什么?

ZenML MCP 服务器是模型上下文协议(MCP)的实现,充当 AI 助手(如 Cursor、Claude Desktop 等)与您的 ZenML MLOps 和 LLMOps 流水线之间的桥梁。通过采用 MCP 标准暴露 ZenML 的 API,使 AI 客户端能够实时访问来自 ZenML 服务器的用户、流水线、流水线运行、步骤、服务等信息。该集成让开发人员和 AI 工作流能够查询元数据、触发新流水线运行,并通过支持的 AI 工具直接使用 ZenML 的编排能力。ZenML MCP 服务器尤其适用于将 LLM 驱动的助手与强大的 MLOps 基础设施连接起来,提升生产力,助力 ML 生命周期各阶段任务。

提示模板列表

在仓库中未找到有关提示模板的信息。

资源列表

  • 用户 – 获取 ZenML 用户信息。
  • 堆栈 – 查询可用堆栈配置信息。
  • 流水线 – 查询 ZenML 管理的流水线元数据。
  • 流水线运行 – 获取流水线执行的信息和状态。
  • 流水线步骤 – 探索流水线内部各步骤详情。
  • 服务 – ZenML 管理的服务相关信息。
  • 堆栈组件 – ZenML 堆栈中各组件的元数据。
  • 风格 – 获取不同堆栈组件风格的信息。
  • 流水线运行模板 – 启动新流水线运行的模板。
  • 调度 – 定时流水线执行的信息。
  • 产物 – 有关数据产物的元数据(不包括数据本身)。
  • 服务连接器 – 连接外部服务的相关信息。
  • 步骤代码 – 获取流水线步骤相关代码。
  • 步骤日志 – 获取步骤的日志(在云堆栈运行时)。

工具列表

  • 触发新流水线运行 – 如存在运行模板,可触发新的流水线运行。
  • 读取资源 – 用于读取 ZenML 服务器对象(用户、堆栈、流水线等)的元数据和状态。

该 MCP 服务器的应用场景

  • 流水线监控与管理:开发者可通过 AI 助手查询流水线运行状态、获取日志并直接从 ZenML 监控进度。
  • 触发流水线执行:AI 助手可通过 MCP 服务器发起新的流水线运行,加快实验迭代和部署周期。
  • 资源与产物探索:即时获取由 ZenML 管理的数据集、模型等产物元数据,为实验提供快速上下文。
  • 堆栈与服务检查:快速查看堆栈配置和服务详情,简化排查和优化过程。
  • 自动化报告:利用 AI 助手生成有关 ML 实验、流水线历史和产物溯源的报告,通过 MCP 服务器查询数据。

如何设置

Windsurf

未找到 Windsurf 的专用说明,请使用通用 MCP 配置:

  1. 确保已安装 Node.js 和 uv
  2. 克隆仓库。
  3. 获取 ZenML 服务器 URL 和 API 密钥。
  4. 编辑您的 Windsurf MCP 配置文件,添加 ZenML MCP 服务器。
  5. 保存并重启 Windsurf。
{
  "mcpServers": {
    "zenml": {
      "command": "/usr/local/bin/uv",
      "args": ["run", "/path/to/zenml_server.py"],
      "env": {
        "LOGLEVEL": "INFO",
        "NO_COLOR": "1",
        "PYTHONUNBUFFERED": "1",
        "PYTHONIOENCODING": "UTF-8",
        "ZENML_STORE_URL": "https://your-zenml-server-goes-here.com",
        "ZENML_STORE_API_KEY": "your-api-key-here"
      }
    }
  }
}

注意:请如上所示,在 env 部分安全存储您的 API 密钥。

Claude

  1. 安装 Claude Desktop。
  2. 打开“设置” > “开发者” > “编辑配置”。
  3. 按如下所示添加 MCP 服务器。
  4. 替换路径和凭证为您自己的。
  5. 保存并重启 Claude Desktop。
{
  "mcpServers": {
    "zenml": {
      "command": "/usr/local/bin/uv",
      "args": ["run", "/path/to/zenml_server.py"],
      "env": {
        "LOGLEVEL": "INFO",
        "NO_COLOR": "1",
        "PYTHONUNBUFFERED": "1",
        "PYTHONIOENCODING": "UTF-8",
        "ZENML_STORE_URL": "https://your-zenml-server-goes-here.com",
        "ZENML_STORE_API_KEY": "your-api-key-here"
      }
    }
  }
}

注意:始终通过环境变量安全存储 API 密钥,如上述配置。

Cursor

  1. 安装 Cursor。
  2. 找到 Cursor 的 MCP 配置文件。
  3. 按示例添加 ZenML MCP 服务器部分。
  4. 填写正确的路径和凭证。
  5. 保存并重启 Cursor。
{
  "mcpServers": {
    "zenml": {
      "command": "/usr/local/bin/uv",
      "args": ["run", "/path/to/zenml_server.py"],
      "env": {
        "LOGLEVEL": "INFO",
        "NO_COLOR": "1",
        "PYTHONUNBUFFERED": "1",
        "PYTHONIOENCODING": "UTF-8",
        "ZENML_STORE_URL": "https://your-zenml-server-goes-here.com",
        "ZENML_STORE_API_KEY": "your-api-key-here"
      }
    }
  }
}

注意:API 密钥应通过 env 部分的环境变量进行安全设置。

Cline

未找到 Cline 的专用说明,请使用通用 MCP 配置:

  1. 安装 Cline 所需的前置条件。
  2. 克隆 MCP-ZenML 仓库。
  3. 获取您的 ZenML 服务器凭证。
  4. 编辑 Cline MCP 配置文件,加入 ZenML MCP 服务器。
  5. 保存并重启 Cline。
{
  "mcpServers": {
    "zenml": {
      "command": "/usr/local/bin/uv",
      "args": ["run", "/path/to/zenml_server.py"],
      "env": {
        "LOGLEVEL": "INFO",
        "NO_COLOR": "1",
        "PYTHONUNBUFFERED": "1",
        "PYTHONIOENCODING": "UTF-8",
        "ZENML_STORE_URL": "https://your-zenml-server-goes-here.com",
        "ZENML_STORE_API_KEY": "your-api-key-here"
      }
    }
  }
}

注意:如上所示,在 env 部分安全配置 API 密钥。

API 密钥安全提示:
请在配置的 env 部分使用环境变量安全存储您的 ZenML API 密钥和服务器 URL,参考上方 JSON 示例。

在流程中如何使用 MCP

在 FlowHunt 中使用 MCP

要将 MCP 服务器集成到 FlowHunt 工作流中,首先添加 MCP 组件到您的流程,并将其连接到 AI 代理:

FlowHunt MCP flow

点击 MCP 组件以打开配置面板,在系统 MCP 配置部分,采用如下 JSON 格式填写您的 MCP 服务器信息:

{
  "zenml": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

完成配置后,AI 代理就可以作为工具调用 MCP,享受其所有功能。请记得将"zenml"替换为您的 MCP 服务器实际名称,并将 URL 换成您自己的 MCP 服务器地址。


概览

部分可用性详情/备注
概览
提示模板列表仓库中未找到
资源列表涵盖 ZenML API 暴露的资源
工具列表触发流水线、读取元数据等
API 密钥安全提供了配置示例
采样支持(评估时不重要)未提及

从上表来看,ZenML MCP 服务器提供了详尽的文档、清晰的设置引导,并暴露了丰富的资源和工具。但缺乏提示模板文档,也未明确说明采样或根支持。仓库活跃,star 和 fork 数适中,但部分高级 MCP 功能未覆盖。


MCP 评分

是否有 LICENSE⛔ (可用文件中未显示)
至少有一个工具
Fork 数8
Star 数18

常见问题

什么是 ZenML MCP 服务器?

ZenML MCP 服务器将 AI 助手与您的 ZenML MLOps 和 LLMOps 流水线连接起来,通过模型上下文协议暴露 ZenML 的 API。这样 AI 工具可以查询流水线元数据、管理运行并直接与 ZenML 基础设施交互。

ZenML MCP 服务器暴露了哪些资源和工具?

它提供对用户、堆栈、流水线、流水线运行、步骤、服务、堆栈组件、风格、流水线运行模板、调度、产物、服务连接器、步骤代码和日志的访问。还可以触发新的流水线运行并读取 ZenML 服务器对象的元数据。

如何安全配置我的 ZenML MCP 服务器?

始终使用 MCP 配置中的 `env` 部分环境变量安全存储您的 ZenML API 密钥和服务器 URL,参考每个客户端的设置示例。

ZenML MCP 服务器的主要应用场景有哪些?

典型应用场景包括流水线监控与控制、触发新的流水线执行、资源与产物的探索、堆栈和服务详情的查看,以及通过 AI 助手自动生成报告。

ZenML MCP 服务器支持提示模板或采样吗?

目前 ZenML MCP 服务器集成尚未提供提示模板文档和采样功能。

用 ZenML MCP 提升您的 AI 工作流

通过将 FlowHunt 连接到 ZenML 的 MCP 服务器,让您的 AI 助手能够即时编排、监控和管理 ML 流水线。

了解更多

模型上下文协议 (MCP) 服务器
模型上下文协议 (MCP) 服务器

模型上下文协议 (MCP) 服务器

模型上下文协议(MCP)服务器将 AI 助手与外部数据源、API 和服务连接起来,实现复杂工作流的无缝集成,并在 FlowHunt 中安全管理开发任务。...

1 分钟阅读
AI MCP +4
MCP服务器开发指南
MCP服务器开发指南

MCP服务器开发指南

学习如何构建和部署模型上下文协议(MCP)服务器,将AI模型与外部工具和数据源连接起来。为初学者和高级开发者提供的分步指南。...

2 分钟阅读
AI Protocol +4
DataHub MCP 服务器集成
DataHub MCP 服务器集成

DataHub MCP 服务器集成

DataHub MCP 服务器为 FlowHunt AI 代理与 DataHub 元数据平台之间架起桥梁,实现高级数据发现、血缘分析、自动元数据检索,以及与 AI 驱动工作流的无缝集成。...

2 分钟阅读
AI Metadata +6