
Intégration du serveur ModelContextProtocol (MCP)
Le serveur ModelContextProtocol (MCP) agit comme un pont entre les agents IA et les sources de données externes, API et services, permettant aux utilisateurs de...
Connectez vos agents IA à l’infrastructure MLOps de ZenML grâce au serveur ZenML MCP pour un contrôle en temps réel des pipelines, l’exploration des artefacts et des workflows ML simplifiés.
Le serveur ZenML MCP est une implémentation du Model Context Protocol (MCP) qui agit comme un pont entre les assistants IA (tels que Cursor, Claude Desktop, et d’autres) et vos pipelines ZenML MLOps et LLMOps. En exposant l’API de ZenML via le standard MCP, il permet aux clients IA d’accéder en temps réel aux informations sur les utilisateurs, pipelines, exécutions de pipeline, étapes, services, et bien plus depuis un serveur ZenML. Cette intégration permet aux développeurs et aux workflows IA d’interroger les métadonnées, de déclencher de nouvelles exécutions de pipeline et d’interagir avec les fonctionnalités d’orchestration de ZenML directement à travers les outils IA compatibles. Le serveur ZenML MCP est particulièrement utile pour améliorer la productivité en connectant des assistants propulsés par LLM à une infrastructure MLOps robuste, facilitant les tâches sur tout le cycle de vie du ML.
Aucune information trouvée sur les modèles de prompt dans le dépôt.
Aucune instruction explicite pour Windsurf trouvée ; utilisez la configuration MCP générique :
uv
sont installés.{
"mcpServers": {
"zenml": {
"command": "/usr/local/bin/uv",
"args": ["run", "/path/to/zenml_server.py"],
"env": {
"LOGLEVEL": "INFO",
"NO_COLOR": "1",
"PYTHONUNBUFFERED": "1",
"PYTHONIOENCODING": "UTF-8",
"ZENML_STORE_URL": "https://your-zenml-server-goes-here.com",
"ZENML_STORE_API_KEY": "your-api-key-here"
}
}
}
}
Remarque : Sécurisez vos clés API en les définissant dans la section env
comme ci-dessus.
{
"mcpServers": {
"zenml": {
"command": "/usr/local/bin/uv",
"args": ["run", "/path/to/zenml_server.py"],
"env": {
"LOGLEVEL": "INFO",
"NO_COLOR": "1",
"PYTHONUNBUFFERED": "1",
"PYTHONIOENCODING": "UTF-8",
"ZENML_STORE_URL": "https://your-zenml-server-goes-here.com",
"ZENML_STORE_API_KEY": "your-api-key-here"
}
}
}
}
Remarque : Stockez toujours vos clés API de manière sécurisée dans les variables d’environnement, comme ci-dessus.
{
"mcpServers": {
"zenml": {
"command": "/usr/local/bin/uv",
"args": ["run", "/path/to/zenml_server.py"],
"env": {
"LOGLEVEL": "INFO",
"NO_COLOR": "1",
"PYTHONUNBUFFERED": "1",
"PYTHONIOENCODING": "UTF-8",
"ZENML_STORE_URL": "https://your-zenml-server-goes-here.com",
"ZENML_STORE_API_KEY": "your-api-key-here"
}
}
}
}
Remarque : Les clés API doivent être définies via les variables d’environnement dans la section env
pour la sécurité.
Aucune instruction explicite pour Cline trouvée ; utilisez la configuration MCP générique :
{
"mcpServers": {
"zenml": {
"command": "/usr/local/bin/uv",
"args": ["run", "/path/to/zenml_server.py"],
"env": {
"LOGLEVEL": "INFO",
"NO_COLOR": "1",
"PYTHONUNBUFFERED": "1",
"PYTHONIOENCODING": "UTF-8",
"ZENML_STORE_URL": "https://your-zenml-server-goes-here.com",
"ZENML_STORE_API_KEY": "your-api-key-here"
}
}
}
}
Remarque : Sécurisez les clés API dans la section env
comme ci-dessus.
Sécurisation des clés API :
Définissez votre clé API ZenML et l’URL du serveur de façon sécurisée via les variables d’environnement dans la section env
de la config, comme dans les exemples JSON ci-dessus.
Utilisation du MCP dans FlowHunt
Pour intégrer des serveurs MCP dans votre workflow FlowHunt, commencez par ajouter le composant MCP à votre flow et connectez-le à votre agent IA :
Cliquez sur le composant MCP pour ouvrir le panneau de configuration. Dans la section de configuration MCP système, saisissez les détails de votre serveur MCP au format JSON suivant :
{
"zenml": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
Une fois configuré, l’agent IA peut alors utiliser ce MCP comme outil avec accès à toutes ses fonctions et capacités. N’oubliez pas de changer “zenml” par le nom réel de votre serveur MCP et de remplacer l’URL par l’URL de votre propre serveur MCP.
Section | Disponibilité | Détails/Remarques |
---|---|---|
Vue d’ensemble | ✅ | |
Liste des Prompts | ⛔ | Non trouvé dans le dépôt |
Liste des ressources | ✅ | Couvre les ressources exposées par l’API de ZenML |
Liste des outils | ✅ | Déclenchement pipeline, lecture des métadonnées, etc. |
Sécurisation des clés API | ✅ | Exemple de configuration fourni |
Support de l’échantillonnage | ⛔ | Non mentionné |
Selon le tableau ci-dessus, le serveur ZenML MCP fournit une documentation complète, des instructions claires d’installation, et expose un large éventail de ressources et outils. Cependant, il manque une documentation sur les modèles de prompt et aucune mention explicite de l’échantillonnage ou du support des roots. Le dépôt est actif, avec un nombre permissif d’étoiles et de forks, mais certaines fonctionnalités avancées MCP ne sont pas couvertes.
Possède une LICENCE | ⛔ (non indiqué dans les fichiers disponibles) |
---|---|
Possède au moins un outil | ✅ |
Nombre de Forks | 8 |
Nombre d’Étoiles | 18 |
Le serveur ZenML MCP fait le lien entre les assistants IA et vos pipelines ZenML MLOps et LLMOps, en exposant l'API de ZenML via le Model Context Protocol. Cela permet aux outils IA d'interroger les métadonnées des pipelines, de gérer les exécutions et d'interagir directement avec l'infrastructure ZenML.
Il donne accès aux utilisateurs, stacks, pipelines, exécutions de pipeline, étapes, services, composants de stack, flavors, modèles d'exécution de pipeline, plannings, artefacts, connecteurs de service, code d'étape et logs. Il permet également de déclencher de nouvelles exécutions de pipeline et de lire les métadonnées des objets serveur ZenML.
Stockez toujours en toute sécurité votre clé API ZenML et l'URL du serveur en utilisant des variables d'environnement dans la section `env` de votre configuration MCP, comme montré dans les exemples de configuration pour chaque client.
Les cas d'utilisation typiques incluent la surveillance et le contrôle des pipelines, le déclenchement de nouvelles exécutions, l'exploration des ressources et artefacts, la consultation des détails de stack et service, et la génération de rapports automatisés via les assistants IA.
La documentation sur les modèles de prompt et les fonctionnalités d'échantillonnage ne sont actuellement pas disponibles dans l'intégration du serveur ZenML MCP.
Permettez à vos assistants IA d'orchestrer, de surveiller et de gérer instantanément les pipelines ML en connectant FlowHunt au serveur MCP de ZenML.
Le serveur ModelContextProtocol (MCP) agit comme un pont entre les agents IA et les sources de données externes, API et services, permettant aux utilisateurs de...
Le serveur Model Context Protocol (MCP) fait le lien entre les assistants IA et des sources de données externes, des API et des services, permettant une intégra...
Le serveur Azure MCP permet une intégration transparente entre les agents IA et l'écosystème cloud d'Azure, permettant l'automatisation pilotée par l'IA, la ges...