Integración de ZenML MCP Server
Conecte sus agentes de IA a la infraestructura MLOps de ZenML usando ZenML MCP Server para control de pipelines en tiempo real, exploración de artefactos y flujos de ML optimizados.

¿Qué hace el MCP Server de “ZenML”?
El ZenML MCP Server es una implementación del Model Context Protocol (MCP) que actúa como puente entre asistentes de IA (como Cursor, Claude Desktop y otros) y sus pipelines de ZenML MLOps y LLMOps. Al exponer la API de ZenML a través del estándar MCP, permite a los clientes de IA acceder a información en tiempo real sobre usuarios, pipelines, ejecuciones de pipelines, pasos, servicios y mucho más desde un servidor ZenML. Esta integración potencia a desarrolladores y flujos de trabajo de IA para consultar metadatos, lanzar nuevas ejecuciones de pipelines e interactuar directamente con las funciones de orquestación de ZenML a través de herramientas de IA compatibles. El ZenML MCP Server resulta especialmente útil para aumentar la productividad conectando asistentes potenciados por LLM a una infraestructura MLOps robusta, facilitando tareas a lo largo del ciclo de vida del ML.
Lista de Prompts
No se encontró información sobre plantillas de prompts en el repositorio.
Lista de Recursos
- Usuarios – Acceso a información de los usuarios de ZenML.
- Stacks – Obtener detalles sobre configuraciones de stack disponibles.
- Pipelines – Consultar metadatos de pipelines gestionados en ZenML.
- Ejecuciones de Pipelines – Información y estado de ejecuciones de pipelines.
- Pasos de Pipeline – Explorar detalles de los pasos dentro de los pipelines.
- Servicios – Información sobre servicios gestionados por ZenML.
- Componentes de Stack – Metadatos de los distintos componentes del stack ZenML.
- Flavors – Obtener información sobre diferentes tipos de componentes de stack.
- Plantillas de Ejecución de Pipeline – Plantillas para lanzar nuevas ejecuciones de pipelines.
- Programaciones – Datos sobre ejecuciones de pipelines programadas.
- Artefactos – Metadatos sobre artefactos de datos (no los datos en sí).
- Conectores de Servicios – Información sobre conectores a servicios externos.
- Código de Paso – Acceso al código relacionado con pasos de pipeline.
- Logs de Paso – Obtener logs de pasos (cuando se ejecutan en stacks en la nube).
Lista de Herramientas
- Lanzar Nueva Ejecución de Pipeline – Permite lanzar una nueva ejecución si existe una plantilla de ejecución.
- Leer Recursos – Herramientas para leer metadatos y estado de objetos del servidor ZenML (usuarios, stacks, pipelines, etc.).
Casos de Uso de este MCP Server
- Monitorización y Gestión de Pipelines: Los desarrolladores pueden usar asistentes de IA para consultar el estado de ejecuciones de pipelines, obtener logs y monitorizar el progreso directamente desde ZenML.
- Lanzamiento de Ejecuciones de Pipeline: Los asistentes de IA pueden iniciar nuevas ejecuciones de pipelines a través del MCP Server, agilizando iteraciones experimentales y ciclos de despliegue.
- Exploración de Recursos y Artefactos: Obtenga instantáneamente metadatos sobre conjuntos de datos, modelos y otros artefactos gestionados por ZenML, permitiendo un rápido acceso contextual para experimentos.
- Inspección de Stacks y Servicios: Revise rápidamente configuraciones de stack y detalles de servicios, simplificando la resolución de problemas y la optimización.
- Informes Automatizados: Utilice asistentes de IA para generar informes sobre experimentos de ML, historial de pipelines y linaje de artefactos consultando al MCP Server.
Cómo configurarlo
Windsurf
No se encontraron instrucciones explícitas para Windsurf; utilice la configuración MCP genérica:
- Asegúrese de tener instalados Node.js y
uv
. - Clone el repositorio.
- Obtenga la URL y clave API de su servidor ZenML.
- Edite el archivo de configuración MCP de Windsurf para añadir el servidor MCP de ZenML.
- Guarde y reinicie Windsurf.
{
"mcpServers": {
"zenml": {
"command": "/usr/local/bin/uv",
"args": ["run", "/path/to/zenml_server.py"],
"env": {
"LOGLEVEL": "INFO",
"NO_COLOR": "1",
"PYTHONUNBUFFERED": "1",
"PYTHONIOENCODING": "UTF-8",
"ZENML_STORE_URL": "https://su-servidor-zenml-aqui.com",
"ZENML_STORE_API_KEY": "su-api-key-aqui"
}
}
}
}
Nota: Proteja sus claves API configurándolas en la sección env
como se muestra arriba.
Claude
- Instale Claude Desktop.
- Abra ‘Configuración’ > ‘Desarrollador’ > ‘Editar Config’.
- Añada el servidor MCP como se muestra a continuación.
- Reemplace las rutas y credenciales con las suyas.
- Guarde y reinicie Claude Desktop.
{
"mcpServers": {
"zenml": {
"command": "/usr/local/bin/uv",
"args": ["run", "/path/to/zenml_server.py"],
"env": {
"LOGLEVEL": "INFO",
"NO_COLOR": "1",
"PYTHONUNBUFFERED": "1",
"PYTHONIOENCODING": "UTF-8",
"ZENML_STORE_URL": "https://su-servidor-zenml-aqui.com",
"ZENML_STORE_API_KEY": "su-api-key-aqui"
}
}
}
}
Nota: Guarde siempre las claves API de forma segura en las variables de entorno como arriba.
Cursor
- Instale Cursor.
- Localice el archivo de configuración MCP de Cursor.
- Añada la sección del servidor MCP de ZenML como se indica.
- Complete las rutas y credenciales correctas.
- Guarde y reinicie Cursor.
{
"mcpServers": {
"zenml": {
"command": "/usr/local/bin/uv",
"args": ["run", "/path/to/zenml_server.py"],
"env": {
"LOGLEVEL": "INFO",
"NO_COLOR": "1",
"PYTHONUNBUFFERED": "1",
"PYTHONIOENCODING": "UTF-8",
"ZENML_STORE_URL": "https://su-servidor-zenml-aqui.com",
"ZENML_STORE_API_KEY": "su-api-key-aqui"
}
}
}
}
Nota: Las claves API deben establecerse mediante variables de entorno en la sección env
por seguridad.
Cline
No se encontraron instrucciones explícitas para Cline; utilice la configuración MCP genérica:
- Instale cualquier requisito previo necesario para Cline.
- Clone el repositorio MCP-ZenML.
- Obtenga las credenciales de su servidor ZenML.
- Edite el archivo de configuración MCP de Cline para incluir el servidor MCP de ZenML.
- Guarde y reinicie Cline.
{
"mcpServers": {
"zenml": {
"command": "/usr/local/bin/uv",
"args": ["run", "/path/to/zenml_server.py"],
"env": {
"LOGLEVEL": "INFO",
"NO_COLOR": "1",
"PYTHONUNBUFFERED": "1",
"PYTHONIOENCODING": "UTF-8",
"ZENML_STORE_URL": "https://su-servidor-zenml-aqui.com",
"ZENML_STORE_API_KEY": "su-api-key-aqui"
}
}
}
}
Nota: Proteja sus claves API en la sección env
como arriba.
Protección de claves API:
Configure de forma segura su clave API y URL del servidor ZenML usando variables de entorno en la sección env
de la configuración, como en los ejemplos JSON anteriores.
Cómo usar este MCP dentro de los flujos
Uso de MCP en FlowHunt
Para integrar servidores MCP en su flujo de trabajo de FlowHunt, comience añadiendo el componente MCP a su flujo y conectándolo a su agente de IA:

Haga clic en el componente MCP para abrir el panel de configuración. En la sección de configuración MCP del sistema, inserte los detalles de su servidor MCP usando este formato JSON:
{
"zenml": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
Una vez configurado, el agente de IA podrá utilizar este MCP como herramienta con acceso a todas sus funciones y capacidades. Recuerde cambiar “zenml” por el nombre real de su servidor MCP y sustituya la URL por la de su servidor MCP.
Resumen
Sección | Disponibilidad | Detalles/Notas |
---|---|---|
Resumen | ✅ | |
Lista de Prompts | ⛔ | No encontrado en el repositorio |
Lista de Recursos | ✅ | Incluye recursos expuestos por la API de ZenML |
Lista de Herramientas | ✅ | Lanzar pipelines, leer metadatos, etc. |
Protección de claves API | ✅ | Ejemplo de configuración proporcionado |
Soporte de Sampling (menos relevante en review) | ⛔ | No mencionado |
Según las tablas anteriores, el servidor ZenML MCP proporciona documentación exhaustiva, instrucciones claras de configuración y expone una amplia variedad de recursos y herramientas. Sin embargo, carece de documentación sobre plantillas de prompts y no se menciona explícitamente sampling ni soporte para roots. El repositorio está activo, con un número permisivo de estrellas y forks, pero algunas funciones avanzadas de MCP no están cubiertas.
Puntuación MCP
¿Tiene LICENSE? | ⛔ (no mostrado en archivos disponibles) |
---|---|
¿Tiene al menos una herramienta? | ✅ |
Número de forks | 8 |
Número de estrellas | 18 |
Preguntas frecuentes
- ¿Qué es el ZenML MCP Server?
El ZenML MCP Server conecta asistentes de IA con sus pipelines MLOps y LLMOps de ZenML, exponiendo la API de ZenML mediante el Model Context Protocol. Esto permite a las herramientas de IA consultar metadatos de pipelines, gestionar ejecuciones e interactuar directamente con la infraestructura de ZenML.
- ¿Qué recursos y herramientas expone el ZenML MCP Server?
Proporciona acceso a usuarios, stacks, pipelines, ejecuciones de pipelines, pasos, servicios, componentes de stack, flavors, plantillas de ejecución de pipelines, programaciones, artefactos, conectores de servicios, código de pasos y logs. También permite desencadenar nuevas ejecuciones de pipelines y leer metadatos de objetos del servidor ZenML.
- ¿Cómo configuro mi ZenML MCP Server de forma segura?
Guarde siempre su clave API de ZenML y la URL del servidor de manera segura utilizando variables de entorno en la sección `env` de su configuración MCP, como se muestra en los ejemplos de configuración para cada cliente.
- ¿Cuáles son los principales casos de uso del ZenML MCP Server?
Los casos de uso típicos incluyen la monitorización y control de pipelines, el lanzamiento de nuevas ejecuciones, la exploración de recursos y artefactos, la revisión de detalles de stacks y servicios, y la generación de informes automáticos mediante asistentes de IA.
- ¿El ZenML MCP Server admite plantillas de prompts o sampling?
Actualmente la integración de ZenML MCP Server no ofrece documentación sobre plantillas de prompts ni funciones de sampling.
Impulse sus flujos de IA con ZenML MCP
Permita que sus asistentes de IA orquesten, supervisen y gestionen pipelines de ML al instante conectando FlowHunt con el MCP Server de ZenML.