Intégration du serveur ZenML MCP

Connectez vos agents IA à l’infrastructure MLOps de ZenML grâce au serveur ZenML MCP pour un contrôle en temps réel des pipelines, l’exploration des artefacts et des workflows ML simplifiés.

Intégration du serveur ZenML MCP

Que fait le serveur “ZenML” MCP ?

Le serveur ZenML MCP est une implémentation du Model Context Protocol (MCP) qui agit comme un pont entre les assistants IA (tels que Cursor, Claude Desktop, et d’autres) et vos pipelines ZenML MLOps et LLMOps. En exposant l’API de ZenML via le standard MCP, il permet aux clients IA d’accéder en temps réel aux informations sur les utilisateurs, pipelines, exécutions de pipeline, étapes, services, et bien plus depuis un serveur ZenML. Cette intégration permet aux développeurs et aux workflows IA d’interroger les métadonnées, de déclencher de nouvelles exécutions de pipeline et d’interagir avec les fonctionnalités d’orchestration de ZenML directement à travers les outils IA compatibles. Le serveur ZenML MCP est particulièrement utile pour améliorer la productivité en connectant des assistants propulsés par LLM à une infrastructure MLOps robuste, facilitant les tâches sur tout le cycle de vie du ML.

Liste des Prompts

Aucune information trouvée sur les modèles de prompt dans le dépôt.

Liste des ressources

  • Utilisateurs – Accès aux informations sur les utilisateurs ZenML.
  • Stacks – Récupère les détails sur les configurations de stack disponibles.
  • Pipelines – Interrogez les métadonnées sur les pipelines gérés dans ZenML.
  • Exécutions de pipeline – Obtenez des informations et le statut des exécutions.
  • Étapes de pipeline – Explorez les détails des étapes au sein des pipelines.
  • Services – Informations sur les services gérés par ZenML.
  • Composants de stack – Métadonnées sur les différents composants de la stack ZenML.
  • Flavors – Récupère des informations sur les différents flavors de composants de stack.
  • Modèles d’exécution de pipeline – Modèles pour lancer de nouvelles exécutions.
  • Plannings – Données sur les exécutions de pipeline planifiées.
  • Artefacts – Métadonnées sur les artefacts de données (pas les données elles-mêmes).
  • Connecteurs de service – Informations sur les connecteurs vers des services externes.
  • Code d’étape – Accès au code lié aux étapes du pipeline.
  • Logs d’étape – Récupération des logs pour les étapes (lorsque exécuté sur des stacks cloud).

Liste des outils

  • Déclencher une nouvelle exécution de pipeline – Permet de lancer une nouvelle exécution si un modèle d’exécution est présent.
  • Lire les ressources – Outils pour lire les métadonnées et statuts des objets du serveur ZenML (utilisateurs, stacks, pipelines, etc).

Cas d’utilisation de ce serveur MCP

  • Surveillance et gestion des pipelines : Les développeurs peuvent utiliser les assistants IA pour interroger le statut des exécutions de pipeline, récupérer les logs et surveiller la progression directement depuis ZenML.
  • Déclenchement d’exécutions de pipeline : Les assistants IA peuvent initier de nouvelles exécutions de pipeline via le serveur MCP, accélérant les itérations d’expérimentation et les cycles de déploiement.
  • Exploration des ressources et artefacts : Récupérez instantanément les métadonnées sur les jeux de données, modèles et autres artefacts gérés par ZenML, permettant une récupération rapide du contexte pour les expériences.
  • Inspection des stacks et services : Passez rapidement en revue les configurations de stack et les détails de service, simplifiant le dépannage et l’optimisation.
  • Rapports automatisés : Utilisez les assistants IA pour générer des rapports sur les expériences ML, l’historique des pipelines et la traçabilité des artefacts en interrogeant le serveur MCP.

Comment le configurer

Windsurf

Aucune instruction explicite pour Windsurf trouvée ; utilisez la configuration MCP générique :

  1. Assurez-vous que Node.js et uv sont installés.
  2. Clonez le dépôt.
  3. Obtenez l’URL et la clé API de votre serveur ZenML.
  4. Modifiez le fichier de configuration MCP de Windsurf pour ajouter le serveur ZenML MCP.
  5. Enregistrez et redémarrez Windsurf.
{
  "mcpServers": {
    "zenml": {
      "command": "/usr/local/bin/uv",
      "args": ["run", "/path/to/zenml_server.py"],
      "env": {
        "LOGLEVEL": "INFO",
        "NO_COLOR": "1",
        "PYTHONUNBUFFERED": "1",
        "PYTHONIOENCODING": "UTF-8",
        "ZENML_STORE_URL": "https://your-zenml-server-goes-here.com",
        "ZENML_STORE_API_KEY": "your-api-key-here"
      }
    }
  }
}

Remarque : Sécurisez vos clés API en les définissant dans la section env comme ci-dessus.

Claude

  1. Installez Claude Desktop.
  2. Ouvrez ‘Paramètres’ > ‘Développeur’ > ‘Modifier la config’.
  3. Ajoutez le serveur MCP comme ci-dessous.
  4. Remplacez les chemins et identifiants par les vôtres.
  5. Enregistrez et redémarrez Claude Desktop.
{
  "mcpServers": {
    "zenml": {
      "command": "/usr/local/bin/uv",
      "args": ["run", "/path/to/zenml_server.py"],
      "env": {
        "LOGLEVEL": "INFO",
        "NO_COLOR": "1",
        "PYTHONUNBUFFERED": "1",
        "PYTHONIOENCODING": "UTF-8",
        "ZENML_STORE_URL": "https://your-zenml-server-goes-here.com",
        "ZENML_STORE_API_KEY": "your-api-key-here"
      }
    }
  }
}

Remarque : Stockez toujours vos clés API de manière sécurisée dans les variables d’environnement, comme ci-dessus.

Cursor

  1. Installez Cursor.
  2. Localisez le fichier de configuration MCP de Cursor.
  3. Ajoutez la section du serveur ZenML MCP comme montré.
  4. Renseignez les bons chemins et identifiants.
  5. Enregistrez et redémarrez Cursor.
{
  "mcpServers": {
    "zenml": {
      "command": "/usr/local/bin/uv",
      "args": ["run", "/path/to/zenml_server.py"],
      "env": {
        "LOGLEVEL": "INFO",
        "NO_COLOR": "1",
        "PYTHONUNBUFFERED": "1",
        "PYTHONIOENCODING": "UTF-8",
        "ZENML_STORE_URL": "https://your-zenml-server-goes-here.com",
        "ZENML_STORE_API_KEY": "your-api-key-here"
      }
    }
  }
}

Remarque : Les clés API doivent être définies via les variables d’environnement dans la section env pour la sécurité.

Cline

Aucune instruction explicite pour Cline trouvée ; utilisez la configuration MCP générique :

  1. Installez toute dépendance requise par Cline.
  2. Clonez le dépôt MCP-ZenML.
  3. Obtenez les identifiants de votre serveur ZenML.
  4. Modifiez le fichier de configuration MCP de Cline pour inclure le serveur ZenML MCP.
  5. Enregistrez et redémarrez Cline.
{
  "mcpServers": {
    "zenml": {
      "command": "/usr/local/bin/uv",
      "args": ["run", "/path/to/zenml_server.py"],
      "env": {
        "LOGLEVEL": "INFO",
        "NO_COLOR": "1",
        "PYTHONUNBUFFERED": "1",
        "PYTHONIOENCODING": "UTF-8",
        "ZENML_STORE_URL": "https://your-zenml-server-goes-here.com",
        "ZENML_STORE_API_KEY": "your-api-key-here"
      }
    }
  }
}

Remarque : Sécurisez les clés API dans la section env comme ci-dessus.

Sécurisation des clés API :
Définissez votre clé API ZenML et l’URL du serveur de façon sécurisée via les variables d’environnement dans la section env de la config, comme dans les exemples JSON ci-dessus.

Comment utiliser ce MCP dans des flows

Utilisation du MCP dans FlowHunt

Pour intégrer des serveurs MCP dans votre workflow FlowHunt, commencez par ajouter le composant MCP à votre flow et connectez-le à votre agent IA :

FlowHunt MCP flow

Cliquez sur le composant MCP pour ouvrir le panneau de configuration. Dans la section de configuration MCP système, saisissez les détails de votre serveur MCP au format JSON suivant :

{
  "zenml": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

Une fois configuré, l’agent IA peut alors utiliser ce MCP comme outil avec accès à toutes ses fonctions et capacités. N’oubliez pas de changer “zenml” par le nom réel de votre serveur MCP et de remplacer l’URL par l’URL de votre propre serveur MCP.


Vue d’ensemble

SectionDisponibilitéDétails/Remarques
Vue d’ensemble
Liste des PromptsNon trouvé dans le dépôt
Liste des ressourcesCouvre les ressources exposées par l’API de ZenML
Liste des outilsDéclenchement pipeline, lecture des métadonnées, etc.
Sécurisation des clés APIExemple de configuration fourni
Support de l’échantillonnageNon mentionné

Selon le tableau ci-dessus, le serveur ZenML MCP fournit une documentation complète, des instructions claires d’installation, et expose un large éventail de ressources et outils. Cependant, il manque une documentation sur les modèles de prompt et aucune mention explicite de l’échantillonnage ou du support des roots. Le dépôt est actif, avec un nombre permissif d’étoiles et de forks, mais certaines fonctionnalités avancées MCP ne sont pas couvertes.


Score MCP

Possède une LICENCE⛔ (non indiqué dans les fichiers disponibles)
Possède au moins un outil
Nombre de Forks8
Nombre d’Étoiles18

Questions fréquemment posées

Qu'est-ce que le serveur ZenML MCP ?

Le serveur ZenML MCP fait le lien entre les assistants IA et vos pipelines ZenML MLOps et LLMOps, en exposant l'API de ZenML via le Model Context Protocol. Cela permet aux outils IA d'interroger les métadonnées des pipelines, de gérer les exécutions et d'interagir directement avec l'infrastructure ZenML.

Quelles ressources et outils le serveur ZenML MCP expose-t-il ?

Il donne accès aux utilisateurs, stacks, pipelines, exécutions de pipeline, étapes, services, composants de stack, flavors, modèles d'exécution de pipeline, plannings, artefacts, connecteurs de service, code d'étape et logs. Il permet également de déclencher de nouvelles exécutions de pipeline et de lire les métadonnées des objets serveur ZenML.

Comment configurer de manière sécurisée mon serveur ZenML MCP ?

Stockez toujours en toute sécurité votre clé API ZenML et l'URL du serveur en utilisant des variables d'environnement dans la section `env` de votre configuration MCP, comme montré dans les exemples de configuration pour chaque client.

Quels sont les principaux cas d'utilisation du serveur ZenML MCP ?

Les cas d'utilisation typiques incluent la surveillance et le contrôle des pipelines, le déclenchement de nouvelles exécutions, l'exploration des ressources et artefacts, la consultation des détails de stack et service, et la génération de rapports automatisés via les assistants IA.

Le serveur ZenML MCP prend-il en charge les modèles de prompt ou l'échantillonnage ?

La documentation sur les modèles de prompt et les fonctionnalités d'échantillonnage ne sont actuellement pas disponibles dans l'intégration du serveur ZenML MCP.

Boostez vos workflows IA avec ZenML MCP

Permettez à vos assistants IA d'orchestrer, de surveiller et de gérer instantanément les pipelines ML en connectant FlowHunt au serveur MCP de ZenML.

En savoir plus