ZenML MCP Server-Integration
Verbinden Sie Ihre KI-Agenten mit ZenMLs MLOps-Infrastruktur über den ZenML MCP Server für Echtzeit-Pipeline-Kontrolle, Artefaktexploration und optimierte ML-Workflows.

Was macht der “ZenML” MCP Server?
Der ZenML MCP Server ist eine Implementierung des Model Context Protocol (MCP), die als Brücke zwischen KI-Assistenten (wie Cursor, Claude Desktop und anderen) und Ihren ZenML MLOps- und LLMOps-Pipelines dient. Durch die Bereitstellung der ZenML-API über den MCP-Standard ermöglicht er KI-Clients den Zugriff auf Live-Informationen über Benutzer, Pipelines, Pipeline-Läufe, Schritte, Services und mehr von einem ZenML-Server. Diese Integration befähigt Entwickler:innen und KI-Workflows, Metadaten abzufragen, neue Pipeline-Läufe auszulösen und direkt über unterstützte KI-Tools mit den Orchestrierungsfunktionen von ZenML zu interagieren. Der ZenML MCP Server ist besonders wertvoll zur Steigerung der Produktivität, indem LLM-gestützte Assistenten mit robuster MLOps-Infrastruktur verbunden werden und Aufgaben im gesamten ML-Lebenszyklus unterstützt werden.
Liste der Prompts
Keine Informationen zu Prompt-Templates im Repository gefunden.
Liste der Ressourcen
- Benutzer – Zugriff auf Informationen über ZenML-Benutzer.
- Stacks – Abruf von Details zu verfügbaren Stack-Konfigurationen.
- Pipelines – Abfrage von Metadaten über in ZenML verwaltete Pipelines.
- Pipeline-Läufe – Informationen und Status zu Pipeline-Ausführungen erhalten.
- Pipeline-Schritte – Details zu Schritten innerhalb von Pipelines erkunden.
- Services – Informationen über von ZenML verwaltete Services.
- Stack-Komponenten – Metadaten zu verschiedenen Komponenten im ZenML-Stack.
- Flavors – Informationen zu verschiedenen Stack-Komponenten-Flavors abrufen.
- Pipeline-Run-Vorlagen – Vorlagen zum Starten neuer Pipeline-Läufe.
- Zeitpläne – Daten zu geplanten Pipeline-Ausführungen.
- Artefakte – Metadaten zu Datenartefakten (nicht die Daten selbst).
- Service-Connectors – Informationen zu Verbindern zu externen Services.
- Step-Code – Zugriff auf Code, der zu Pipeline-Schritten gehört.
- Step-Logs – Abrufen von Logs für Schritte (bei Ausführung auf Cloud-basierten Stacks).
Liste der Tools
- Neuen Pipeline-Lauf auslösen – Ermöglicht das Auslösen eines neuen Pipeline-Laufs, wenn eine Run-Vorlage vorhanden ist.
- Ressourcen lesen – Tools zum Auslesen von Metadaten und Status aus ZenML-Serverobjekten (Benutzer, Stacks, Pipelines usw.).
Anwendungsfälle dieses MCP Servers
- Pipeline-Überwachung und -Management: Entwickler:innen können mit KI-Assistenten den Status von Pipeline-Läufen abfragen, Logs abrufen und den Fortschritt direkt aus ZenML überwachen.
- Auslösen von Pipeline-Ausführungen: KI-Assistenten können neue Pipeline-Läufe über den MCP Server initiieren und so Experimentierschleifen und Deployment-Zyklen beschleunigen.
- Ressourcen- und Artefaktexploration: Metadaten zu Datensätzen, Modellen und anderen von ZenML verwalteten Artefakten sofort abrufen, um schnellen Kontext für Experimente zu erhalten.
- Stack- und Service-Inspektion: Stack-Konfigurationen und Service-Details schnell einsehen, um das Troubleshooting und die Optimierung zu erleichtern.
- Automatisiertes Reporting: KI-Assistenten nutzen, um Berichte zu ML-Experimenten, Pipeline-Historie und Artefakt-Herkunft zu erstellen, indem sie den MCP Server abfragen.
So richten Sie es ein
Windsurf
Keine spezifischen Anweisungen für Windsurf gefunden; verwenden Sie die generische MCP-Konfiguration:
- Stellen Sie sicher, dass Node.js und
uv
installiert sind. - Klonen Sie das Repository.
- Besorgen Sie sich Ihre ZenML-Server-URL und Ihren API-Schlüssel.
- Bearbeiten Sie Ihre Windsurf-MCP-Konfigurationsdatei, um den ZenML MCP Server hinzuzufügen.
- Speichern Sie und starten Sie Windsurf neu.
{
"mcpServers": {
"zenml": {
"command": "/usr/local/bin/uv",
"args": ["run", "/path/to/zenml_server.py"],
"env": {
"LOGLEVEL": "INFO",
"NO_COLOR": "1",
"PYTHONUNBUFFERED": "1",
"PYTHONIOENCODING": "UTF-8",
"ZENML_STORE_URL": "https://your-zenml-server-goes-here.com",
"ZENML_STORE_API_KEY": "your-api-key-here"
}
}
}
}
Hinweis: Sichern Sie Ihre API-Schlüssel, indem Sie sie wie oben im Abschnitt env
setzen.
Claude
- Installieren Sie Claude Desktop.
- Öffnen Sie ‘Einstellungen’ > ‘Entwickler’ > ‘Konfiguration bearbeiten’.
- Fügen Sie den MCP Server wie unten gezeigt hinzu.
- Ersetzen Sie Pfade und Zugangsdaten durch Ihre eigenen.
- Speichern Sie und starten Sie Claude Desktop neu.
{
"mcpServers": {
"zenml": {
"command": "/usr/local/bin/uv",
"args": ["run", "/path/to/zenml_server.py"],
"env": {
"LOGLEVEL": "INFO",
"NO_COLOR": "1",
"PYTHONUNBUFFERED": "1",
"PYTHONIOENCODING": "UTF-8",
"ZENML_STORE_URL": "https://your-zenml-server-goes-here.com",
"ZENML_STORE_API_KEY": "your-api-key-here"
}
}
}
}
Hinweis: Speichern Sie Ihre API-Schlüssel immer sicher in den Umgebungsvariablen wie oben.
Cursor
- Installieren Sie Cursor.
- Lokalisieren Sie die MCP-Konfigurationsdatei von Cursor.
- Fügen Sie den ZenML-MCP-Server-Bereich wie unten gezeigt hinzu.
- Tragen Sie die korrekten Pfade und Zugangsdaten ein.
- Speichern Sie und starten Sie Cursor neu.
{
"mcpServers": {
"zenml": {
"command": "/usr/local/bin/uv",
"args": ["run", "/path/to/zenml_server.py"],
"env": {
"LOGLEVEL": "INFO",
"NO_COLOR": "1",
"PYTHONUNBUFFERED": "1",
"PYTHONIOENCODING": "UTF-8",
"ZENML_STORE_URL": "https://your-zenml-server-goes-here.com",
"ZENML_STORE_API_KEY": "your-api-key-here"
}
}
}
}
Hinweis: API-Schlüssel sollten zur Sicherheit im Abschnitt env
als Umgebungsvariablen gesetzt werden.
Cline
Keine spezifischen Anweisungen für Cline gefunden; verwenden Sie die generische MCP-Konfiguration:
- Installieren Sie alle erforderlichen Voraussetzungen für Cline.
- Klonen Sie das MCP-ZenML-Repository.
- Besorgen Sie sich Ihre ZenML-Server-Zugangsdaten.
- Bearbeiten Sie die Cline-MCP-Konfigurationsdatei, um den ZenML MCP Server hinzuzufügen.
- Speichern Sie und starten Sie Cline neu.
{
"mcpServers": {
"zenml": {
"command": "/usr/local/bin/uv",
"args": ["run", "/path/to/zenml_server.py"],
"env": {
"LOGLEVEL": "INFO",
"NO_COLOR": "1",
"PYTHONUNBUFFERED": "1",
"PYTHONIOENCODING": "UTF-8",
"ZENML_STORE_URL": "https://your-zenml-server-goes-here.com",
"ZENML_STORE_API_KEY": "your-api-key-here"
}
}
}
}
Hinweis: Sichern Sie API-Schlüssel wie oben im Abschnitt env
.
API-Schlüssel sichern:
Setzen Sie Ihren ZenML API-Schlüssel und Ihre Server-URL sicher über Umgebungsvariablen im env
-Bereich der Konfiguration, wie in den obigen JSON-Beispielen gezeigt.
So nutzen Sie dieses MCP in Flows
MCP in FlowHunt verwenden
Um MCP-Server in Ihren FlowHunt-Workflow zu integrieren, fügen Sie zunächst die MCP-Komponente zu Ihrem Flow hinzu und verbinden Sie sie mit Ihrem KI-Agenten:

Klicken Sie auf die MCP-Komponente, um das Konfigurationspanel zu öffnen. Im System-MCP-Konfigurationsbereich fügen Sie Ihre MCP-Serverdetails in diesem JSON-Format ein:
{
"zenml": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
Nach der Konfiguration kann der KI-Agent diesen MCP nun als Tool mit Zugriff auf alle Funktionen und Möglichkeiten nutzen. Denken Sie daran, “zenml” durch den tatsächlichen Namen Ihres MCP-Servers zu ersetzen und die URL durch Ihre eigene MCP-Server-URL auszutauschen.
Übersicht
Abschnitt | Verfügbarkeit | Details/Hinweise |
---|---|---|
Übersicht | ✅ | |
Liste der Prompts | ⛔ | Nicht im Repository gefunden |
Liste der Ressourcen | ✅ | Deckt Ressourcen ab, die von der ZenML-API bereitgestellt werden |
Liste der Tools | ✅ | Pipeline auslösen, Metadaten lesen etc. |
API-Schlüssel sichern | ✅ | Beispielkonfiguration vorhanden |
Sampling-Support (weniger relevant) | ⛔ | Nicht erwähnt |
Basierend auf den obigen Tabellen bietet der ZenML MCP Server eine ausführliche Dokumentation, klare Einrichtungshinweise und stellt eine Vielzahl von Ressourcen und Tools bereit. Es fehlen jedoch Informationen zu Prompt-Templates und es gibt keine explizite Erwähnung von Sampling- oder Roots-Support. Das Repository ist aktiv, mit einer anständigen Anzahl an Stars und Forks, aber einige fortgeschrittene MCP-Features werden nicht abgedeckt.
MCP Score
Hat eine LICENSE | ⛔ (nicht in verfügbaren Dateien gezeigt) |
---|---|
Mindestens ein Tool | ✅ |
Anzahl Forks | 8 |
Anzahl Stars | 18 |
Häufig gestellte Fragen
- Was ist der ZenML MCP Server?
Der ZenML MCP Server verbindet KI-Assistenten mit Ihren ZenML MLOps- und LLMOps-Pipelines, indem er die ZenML-API über das Model Context Protocol bereitstellt. Dadurch können KI-Tools Pipeline-Metadaten abfragen, Ausführungen verwalten und direkt mit der ZenML-Infrastruktur interagieren.
- Welche Ressourcen und Tools stellt der ZenML MCP Server bereit?
Er bietet Zugriff auf Benutzer, Stacks, Pipelines, Pipeline-Läufe, Schritte, Services, Stack-Komponenten, Flavors, Pipeline-Run-Vorlagen, Zeitpläne, Artefakte, Service-Connectors, Step-Code und Logs. Außerdem können neue Pipeline-Läufe ausgelöst und Metadaten von ZenML-Serverobjekten gelesen werden.
- Wie konfiguriere ich meinen ZenML MCP Server sicher?
Speichern Sie Ihren ZenML API-Schlüssel und die Server-URL immer sicher über Umgebungsvariablen im Abschnitt `env` Ihrer MCP-Konfiguration, wie in den Setup-Beispielen für jeden Client gezeigt.
- Was sind die Hauptanwendungsfälle für den ZenML MCP Server?
Typische Anwendungsfälle sind Pipeline-Monitoring und -Steuerung, das Auslösen neuer Pipeline-Ausführungen, die Exploration von Ressourcen und Artefakten, die Überprüfung von Stack- und Service-Details sowie das Generieren automatisierter Berichte durch KI-Assistenten.
- Unterstützt der ZenML MCP Server Prompt-Templates oder Sampling?
Dokumentation zu Prompt-Templates und Sampling-Funktionen ist derzeit in der ZenML MCP Server-Integration nicht verfügbar.
Steigern Sie Ihre KI-Workflows mit ZenML MCP
Ermöglichen Sie Ihren KI-Assistenten, ML-Pipelines sofort zu orchestrieren, zu überwachen und zu verwalten, indem Sie FlowHunt mit ZenMLs MCP Server verbinden.