Integracja z ZenML MCP Server
Połącz swoich agentów AI z infrastrukturą MLOps ZenML przy użyciu ZenML MCP Server, uzyskując kontrolę nad pipeline’ami w czasie rzeczywistym, eksplorację artefaktów i usprawnione przepływy ML.

Co robi serwer “ZenML” MCP?
ZenML MCP Server to implementacja Model Context Protocol (MCP), która działa jako pomost między asystentami AI (takimi jak Cursor, Claude Desktop i innymi) a pipeline’ami MLOps i LLMOps w ZenML. Udostępniając API ZenML zgodnie ze standardem MCP, pozwala klientom AI na dostęp do bieżących informacji o użytkownikach, pipeline’ach, uruchomieniach, krokach, usługach i innych elementach serwera ZenML. Ta integracja umożliwia deweloperom i przepływom AI zapytania o metadane, wyzwalanie nowych uruchomień pipeline’ów oraz korzystanie z funkcji orkiestracji ZenML bezpośrednio z poziomu obsługiwanych narzędzi AI. ZenML MCP Server szczególnie zwiększa produktywność dzięki połączeniu asystentów opartych o LLM z solidną infrastrukturą MLOps, usprawniając zadania w całym cyklu życia ML.
Lista promptów
Brak informacji o szablonach promptów w repozytorium.
Lista zasobów
- Użytkownicy – Dostęp do informacji o użytkownikach ZenML.
- Stacki – Pobieranie szczegółów dostępnych konfiguracji stacków.
- Pipeline’y – Zapytania o metadane pipeline’ów zarządzanych w ZenML.
- Uruchomienia pipeline’ów – Informacje i statusy dotyczące uruchomień pipeline’ów.
- Kroki pipeline’ów – Szczegóły kroków w pipeline’ach.
- Usługi – Informacje o usługach zarządzanych przez ZenML.
- Komponenty stacka – Metadane dotyczące różnych komponentów stacka ZenML.
- Flavory – Informacje o różnych flavorach komponentów stacka.
- Szablony uruchomień pipeline’ów – Szablony do uruchamiania nowych pipeline’ów.
- Harmonogramy – Dane o zaplanowanych uruchomieniach pipeline’ów.
- Artefakty – Metadane dotyczące artefaktów danych (nie samych danych).
- Konektory usług – Informacje o konektorach do zewnętrznych usług.
- Kod kroków – Dostęp do kodu kroków pipeline’ów.
- Logi kroków – Pobieranie logów kroków (gdy uruchamiane są na stackach chmurowych).
Lista narzędzi
- Wyzwól nowe uruchomienie pipeline’u – Pozwala na uruchomienie nowego pipeline’u, jeśli dostępny jest szablon.
- Odczyt zasobów – Narzędzia do odczytu metadanych i statusów obiektów serwera ZenML (użytkownicy, stacki, pipeline’y itd.).
Przypadki użycia tego serwera MCP
- Monitorowanie i zarządzanie pipeline’ami: Deweloperzy mogą używać asystentów AI do zapytań o status uruchomień pipeline’ów, pobierania logów i monitorowania postępu bezpośrednio z ZenML.
- Wyzwalanie uruchomień pipeline’ów: Asystenci AI mogą inicjować nowe uruchomienia pipeline’ów przez serwer MCP, usprawniając iteracje eksperymentów i cykle wdrożeniowe.
- Eksploracja zasobów i artefaktów: Natychmiastowy dostęp do metadanych o zbiorach danych, modelach i innych artefaktach zarządzanych przez ZenML, co umożliwia szybkie pozyskanie kontekstu eksperymentów.
- Inspekcja stacków i usług: Szybki przegląd konfiguracji stacków i szczegółów usług, upraszczający rozwiązywanie problemów i optymalizację.
- Automatyczne raportowanie: Wykorzystanie asystentów AI do generowania raportów dotyczących eksperymentów ML, historii pipeline’ów i pochodzenia artefaktów poprzez zapytania do serwera MCP.
Jak skonfigurować
Windsurf
Brak szczegółowych instrukcji dla Windsurf; użyj ogólnej konfiguracji MCP:
- Upewnij się, że Node.js i
uv
są zainstalowane. - Sklonuj repozytorium.
- Uzyskaj adres URL serwera ZenML i klucz API.
- Edytuj plik konfiguracyjny MCP Windsurf, aby dodać serwer ZenML MCP.
- Zapisz i zrestartuj Windsurf.
{
"mcpServers": {
"zenml": {
"command": "/usr/local/bin/uv",
"args": ["run", "/path/to/zenml_server.py"],
"env": {
"LOGLEVEL": "INFO",
"NO_COLOR": "1",
"PYTHONUNBUFFERED": "1",
"PYTHONIOENCODING": "UTF-8",
"ZENML_STORE_URL": "https://your-zenml-server-goes-here.com",
"ZENML_STORE_API_KEY": "your-api-key-here"
}
}
}
}
Uwaga: Zabezpiecz klucze API, ustawiając je w sekcji env
, jak powyżej.
Claude
- Zainstaluj Claude Desktop.
- Otwórz ‘Settings’ > ‘Developer’ > ‘Edit Config’.
- Dodaj serwer MCP jak poniżej.
- Zamień ścieżki i dane dostępowe na własne.
- Zapisz i zrestartuj Claude Desktop.
{
"mcpServers": {
"zenml": {
"command": "/usr/local/bin/uv",
"args": ["run", "/path/to/zenml_server.py"],
"env": {
"LOGLEVEL": "INFO",
"NO_COLOR": "1",
"PYTHONUNBUFFERED": "1",
"PYTHONIOENCODING": "UTF-8",
"ZENML_STORE_URL": "https://your-zenml-server-goes-here.com",
"ZENML_STORE_API_KEY": "your-api-key-here"
}
}
}
}
Uwaga: Zawsze przechowuj klucze API bezpiecznie w zmiennych środowiskowych, jak powyżej.
Cursor
- Zainstaluj Cursor.
- Zlokalizuj plik konfiguracyjny MCP Cursor.
- Dodaj sekcję serwera ZenML MCP jak pokazano.
- Uzupełnij poprawne ścieżki i dane dostępowe.
- Zapisz i zrestartuj Cursor.
{
"mcpServers": {
"zenml": {
"command": "/usr/local/bin/uv",
"args": ["run", "/path/to/zenml_server.py"],
"env": {
"LOGLEVEL": "INFO",
"NO_COLOR": "1",
"PYTHONUNBUFFERED": "1",
"PYTHONIOENCODING": "UTF-8",
"ZENML_STORE_URL": "https://your-zenml-server-goes-here.com",
"ZENML_STORE_API_KEY": "your-api-key-here"
}
}
}
}
Uwaga: Klucze API powinny być ustawiane w zmiennych środowiskowych w sekcji env
dla bezpieczeństwa.
Cline
Brak szczegółowych instrukcji dla Cline; użyj ogólnej konfiguracji MCP:
- Zainstaluj wymagane przez Cline zależności.
- Sklonuj repozytorium MCP-ZenML.
- Uzyskaj dane dostępowe do serwera ZenML.
- Edytuj plik konfiguracyjny MCP Cline, aby dodać serwer ZenML MCP.
- Zapisz i zrestartuj Cline.
{
"mcpServers": {
"zenml": {
"command": "/usr/local/bin/uv",
"args": ["run", "/path/to/zenml_server.py"],
"env": {
"LOGLEVEL": "INFO",
"NO_COLOR": "1",
"PYTHONUNBUFFERED": "1",
"PYTHONIOENCODING": "UTF-8",
"ZENML_STORE_URL": "https://your-zenml-server-goes-here.com",
"ZENML_STORE_API_KEY": "your-api-key-here"
}
}
}
}
Uwaga: Zabezpiecz klucze API w sekcji env
jak powyżej.
Zabezpieczanie kluczy API:
Ustawiaj klucz API ZenML i adres URL serwera bezpiecznie, używając zmiennych środowiskowych w sekcji env
konfiguracji, jak w powyższych przykładach JSON.
Jak korzystać z MCP w przepływach
Wykorzystanie MCP w FlowHunt
Aby zintegrować serwery MCP w swoim przepływie FlowHunt, zacznij od dodania komponentu MCP do przepływu i połączenia go ze swoim agentem AI:

Kliknij na komponent MCP, aby otworzyć panel konfiguracji. W sekcji systemowej konfiguracji MCP wstaw szczegóły serwera MCP w tym formacie JSON:
{
"zenml": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
Po skonfigurowaniu agent AI będzie mógł korzystać z MCP jako narzędzia ze wszystkimi jego funkcjami i możliwościami. Pamiętaj, aby zmienić “zenml” na faktyczną nazwę swojego serwera MCP oraz podać własny adres URL serwera MCP.
Podsumowanie
Sekcja | Dostępność | Szczegóły/Uwagi |
---|---|---|
Podsumowanie | ✅ | |
Lista promptów | ⛔ | Nie znaleziono w repo |
Lista zasobów | ✅ | Obejmuje zasoby udostępniane przez API ZenML |
Lista narzędzi | ✅ | Wyzwalanie pipeline’u, odczyt metadanych itd. |
Zabezpieczanie kluczy API | ✅ | Podano przykład konfiguracji |
Sampling (mniej istotne przy ocenie) | ⛔ | Nie wspomniano |
Na podstawie powyższych tabel serwer ZenML MCP zapewnia szczegółową dokumentację, jasne instrukcje konfiguracji oraz udostępnia szeroki zakres zasobów i narzędzi. Brakuje jednak dokumentacji szablonów promptów oraz nie ma wzmianki o sampling czy wsparciu roots. Repozytorium jest aktywne, posiada odpowiednią liczbę gwiazdek i forków, choć niektóre zaawansowane funkcje MCP nie są obsługiwane.
Wynik MCP
Czy posiada LICENSE | ⛔ (brak w dostępnych plikach) |
---|---|
Ma przynajmniej jedno narzędzie | ✅ |
Liczba forków | 8 |
Liczba gwiazdek | 18 |
Najczęściej zadawane pytania
- Czym jest ZenML MCP Server?
ZenML MCP Server łączy asystentów AI z pipeline’ami MLOps i LLMOps ZenML, udostępniając API ZenML przez Model Context Protocol. Dzięki temu narzędzia AI mogą zapytywać o metadane pipeline’ów, zarządzać uruchomieniami i bezpośrednio komunikować się z infrastrukturą ZenML.
- Jakie zasoby i narzędzia udostępnia ZenML MCP Server?
Umożliwia dostęp do użytkowników, stacków, pipeline’ów, uruchomień pipeline’ów, kroków, usług, komponentów stacka, flavorów, szablonów uruchomień pipeline’ów, harmonogramów, artefaktów, konektorów usług, kodu kroków oraz logów. Pozwala też na wyzwalanie nowych uruchomień pipeline’ów i odczyt metadanych z obiektów serwera ZenML.
- Jak bezpiecznie skonfigurować ZenML MCP Server?
Zawsze przechowuj klucz API ZenML i adres URL serwera w sposób bezpieczny, używając zmiennych środowiskowych w sekcji `env` konfiguracji MCP, jak pokazano w przykładach dla każdego klienta.
- Jakie są główne przypadki użycia ZenML MCP Server?
Typowe zastosowania to monitorowanie i kontrola pipeline’ów, wyzwalanie nowych uruchomień, eksploracja zasobów i artefaktów, przeglądanie szczegółów stacków i usług oraz generowanie automatycznych raportów przez asystentów AI.
- Czy ZenML MCP Server obsługuje szablony promptów lub sampling?
Dokumentacja szablonów promptów i funkcje sampling nie są obecnie dostępne w integracji ZenML MCP Server.
Przyspiesz swoje przepływy AI z ZenML MCP
Pozwól swoim asystentom AI orkiestrację, monitorować i zarządzać pipeline’ami ML natychmiast, łącząc FlowHunt z ZenML MCP Server.