À quoi sert le serveur “DataHub” MCP ?
Le serveur DataHub MCP (Model Context Protocol) agit comme un pont entre les assistants IA et votre écosystème de données DataHub. En exposant les puissantes API de métadonnées et de contexte de DataHub via le standard MCP, ce serveur permet aux agents IA de rechercher tous types d’entités, de récupérer des métadonnées détaillées, de parcourir le lineage des données et de lister les requêtes SQL associées. Cela améliore considérablement les workflows de développement en permettant aux modèles IA d’accéder à un contexte de données à jour, d’effectuer des requêtes complexes et d’automatiser l’exploration des métadonnées directement depuis votre interface IA préférée. Le serveur DataHub MCP prend en charge à la fois DataHub Core et DataHub Cloud, ce qui en fait une solution polyvalente pour les organisations souhaitant intégrer leur plateforme de métadonnées avec des outils et assistants IA.
Liste des prompts
Aucun modèle de prompt n’est détaillé ou mentionné dans le dépôt ou le README.
Liste des ressources
Aucune primitive de ressource MCP explicite n’est décrite dans le dépôt ou le README.
Liste des outils
- Recherche sur tous types d’entités avec des filtres personnalisés
Permet aux clients d’interroger les entités DataHub (datasets, dashboards, pipelines, etc.) avec des filtres sur mesure. - Récupération de métadonnées pour toute entité
Récupère toutes les métadonnées relatives à une entité DataHub spécifique. - Navigation dans le graphe de lineage (amont et aval)
Permet d’explorer l’ascendance et la descendance des données pour une entité donnée. - Liste des requêtes SQL associées à un jeu de données
Remonte les requêtes SQL liées à un dataset pour audit et compréhension des usages.
Cas d’usage de ce serveur MCP
- Découverte complète des données
Les développeurs et data scientists peuvent rechercher et filtrer toutes les entités DataHub, accélérant la découverte et réduisant le travail manuel. - Récupération automatisée des métadonnées
Les agents IA extraient automatiquement des métadonnées détaillées, facilitant la documentation, les contrôles qualité ou l’onboarding. - Analyse du lineage pour l’évaluation d’impact
En parcourant le lineage amont/aval, les équipes évaluent instantanément l’impact des modifications pour une meilleure gouvernance. - Audit des requêtes SQL
Listez et analysez facilement les requêtes SQL liées aux datasets pour contrôler la conformité, optimiser les performances et l’accès aux données. - Intégration avec des agents IA
Connectez DataHub aux assistants IA pour automatiser la gestion et l’exploration des données, directement depuis le chat ou l’éditeur de code.
Comment le mettre en place
Windsurf
Aucune instruction spécifique à Windsurf trouvée dans le dépôt.
Claude
Installez
uv
.Localisez le chemin complet de la commande
uvx
avecwhich uvx
.Récupérez l’URL de votre DataHub et votre jeton d’accès personnel.
Modifiez votre fichier
claude_desktop_config.json
:{ "mcpServers": { "datahub": { "command": "<full-path-to-uvx>", // ex : /Users/hsheth/.local/bin/uvx "args": ["mcp-server-datahub"], "env": { "DATAHUB_GMS_URL": "<your-datahub-url>", "DATAHUB_GMS_TOKEN": "<your-datahub-token>" } } } }
Enregistrez et (re)démarrez Claude Desktop. Vérifiez la connexion dans l’interface agent.
Cursor
Installez
uv
.Récupérez l’URL de votre DataHub et votre jeton d’accès personnel.
Modifiez
.cursor/mcp.json
:{ "mcpServers": { "datahub": { "command": "uvx", "args": ["mcp-server-datahub"], "env": { "DATAHUB_GMS_URL": "<your-datahub-url>", "DATAHUB_GMS_TOKEN": "<your-datahub-token>" } } } }
Enregistrez le fichier et redémarrez Cursor. Vérifiez dans le panneau d’état MCP.
Cline
Aucune instruction spécifique à Cline trouvée dans le dépôt.
Clients MCP génériques/autres
Installez
uv
.Préparez l’URL de votre DataHub et votre jeton d’accès personnel.
Utilisez cette configuration :
command: uvx args: - mcp-server-datahub env: DATAHUB_GMS_URL: <your-datahub-url> DATAHUB_GMS_TOKEN: <your-datahub-token>
Intégrez cette commande dans la configuration de votre client MCP.
Sécurisation des clés API
Stockez toujours les identifiants sensibles comme DATAHUB_GMS_TOKEN
dans des variables d’environnement, jamais en clair dans des fichiers. Dans votre configuration, utilisez le champ env
comme ci-dessus pour injecter les secrets de manière sécurisée.
Comment utiliser ce MCP dans les flows
Utilisation de MCP dans FlowHunt
Pour intégrer des serveurs MCP dans votre workflow FlowHunt, commencez par ajouter le composant MCP à votre flow et reliez-le à votre agent IA :

Cliquez sur le composant MCP pour ouvrir son panneau de configuration. Dans la section configuration système MCP, insérez les détails de votre serveur MCP sous ce format JSON :
{
"datahub": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
Une fois configuré, l’agent IA pourra utiliser ce MCP comme outil avec toutes ses fonctions et capacités. Pensez à remplacer “datahub” par le nom réel de votre serveur MCP et l’URL par celle de votre serveur MCP.
Aperçu
Section | Disponibilité | Détails/Notes |
---|---|---|
Présentation | ✅ | Présente dans le README et la description du dépôt |
Liste des prompts | ⛔ | Aucun modèle de prompt trouvé |
Liste des ressources | ⛔ | Aucune primitive de ressource MCP décrite |
Liste des outils | ✅ | Outils décrits dans la section features du README |
Sécurisation des clés API | ✅ | Variables d’environnement dans les instructions d’installation |
Support de l’échantillonnage (moins important) | ⛔ | Aucun échantillonnage mentionné dans le README ou le code |
J’estime ce serveur MCP à environ 6/10. Il dispose d’une licence open source claire, de vrais outils, et d’instructions de sécurité de base, mais il manque de modèles de prompt documentés, de primitives de ressource explicites et de fonctionnalités MCP avancées comme l’échantillonnage ou les racines.
Score MCP
Dispose d’une LICENCE | ✅ (Apache-2.0) |
---|---|
Au moins un outil | ✅ |
Nombre de forks | 13 |
Nombre d’étoiles | 37 |
Questions fréquemment posées
- À quoi sert le serveur DataHub MCP ?
Il expose les API de métadonnées et de contexte de DataHub via le standard MCP, permettant aux agents IA de rechercher, de récupérer des métadonnées, de parcourir le lineage et de lister les requêtes SQL sur vos données organisationnelles, directement depuis FlowHunt ou d’autres outils IA.
- Quels environnements DataHub sont pris en charge ?
DataHub Core et DataHub Cloud sont tous deux pris en charge, vous pouvez donc vous connecter quel que soit votre mode de déploiement.
- Quels sont les principaux cas d’usage ?
Les cas d’usage courants incluent la découverte complète des données, la récupération automatisée de métadonnées, l’analyse du lineage pour l’évaluation d’impact, l’audit des requêtes SQL et l’intégration avec des agents IA pour automatiser les workflows.
- Comment fournir les identifiants en toute sécurité ?
Utilisez toujours des variables d’environnement pour les identifiants sensibles comme DATAHUB_GMS_TOKEN. Injectez-les à l’aide du champ 'env' dans vos fichiers de configuration afin de garder vos secrets en sécurité.
- Des modèles de prompt ou primitives de ressource sont-ils inclus ?
Aucun modèle de prompt explicite ou primitive de ressource MCP n’est fourni avec ce serveur.
- Quels outils ce serveur MCP propose-t-il ?
Il permet la recherche sur tous les types d’entités, la récupération de métadonnées, la navigation dans le lineage et la liste des requêtes SQL associées aux jeux de données.
- Comment connecter DataHub MCP à FlowHunt ?
Ajoutez un composant MCP dans votre flux FlowHunt, configurez-le avec le JSON de votre serveur DataHub MCP comme indiqué dans la documentation, et connectez-le à votre agent IA pour accéder immédiatement aux fonctionnalités de DataHub.
Connectez FlowHunt à DataHub via MCP
Donnez à vos flux IA un accès en temps réel aux métadonnées, au lineage et aux outils de découverte de données de votre organisation grâce au serveur DataHub MCP. Automatisez la gestion et la gouvernance des données directement depuis FlowHunt.