Serveur MCP VertexAI Search
Intégrez facilement Google Vertex AI Search avec vos agents IA pour permettre une recherche fiable et ancrée sur des jeux de données privés avec le serveur MCP VertexAI Search.

Que fait le serveur MCP “VertexAI Search” ?
Le serveur MCP VertexAI Search est conçu pour connecter les assistants IA à Google Vertex AI Search, leur permettant d’interroger et de récupérer des informations à partir de jeux de données privés stockés dans Vertex AI Datastore. En exploitant Gemini avec l’ancrage Vertex AI, ce serveur améliore la qualité et la précision des résultats de recherche en ancrant les réponses IA dans vos propres données. Il prend en charge l’intégration avec un ou plusieurs data stores Vertex AI, ce qui en fait un outil puissant pour enrichir les workflows pilotés par LLM avec des informations contextuelles spécifiques à l’organisation. Cette capacité permet aux développeurs d’automatiser la recherche documentaire, les requêtes sur les bases de connaissances et de fluidifier l’accès aux données d’entreprise dans les environnements de développement et de production.
Liste des invites
Aucun modèle d’invite n’est mentionné dans le dépôt.
Liste des ressources
Aucune ressource spécifique n’est détaillée dans le dépôt.
Liste des outils
Aucune liste explicite d’outils n’est fournie dans le dépôt ou dans server.py.
Cas d’utilisation de ce serveur MCP
- Automatisation de la recherche d’entreprise : Intégrez Vertex AI Search dans les workflows pour automatiser l’interrogation et la récupération de documents à partir de jeux de données privés, simplifiant ainsi l’accès à l’information interne.
- Enrichissement de la base de connaissances : Améliorez les assistants IA avec la capacité de répondre à des requêtes utilisateurs ancrées dans la connaissance propre à l’organisation, augmentant la précision des réponses.
- Prise de décision basée sur les données : Permettez aux développeurs de faire remonter des données pertinentes depuis Vertex AI Datastores lors du développement d’applications, pour favoriser des décisions fondées sur des preuves.
- Développement d’assistants IA personnalisés : Créez des agents IA spécialisés, capables de rechercher et de contextualiser les réponses en utilisant des data stores Vertex AI sélectionnés.
Comment le configurer
Windsurf
- Assurez-vous que Python et Docker sont installés sur votre système.
- Clonez le dépôt :
git clone git@github.com:ubie-oss/mcp-vertexai-search.git
- Créez un environnement virtuel et installez les dépendances :
uv venv uv sync --all-extras
- Ajoutez la configuration du serveur MCP dans le fichier de configuration Windsurf comme suit :
{ "mcpServers": { "vertexai-search": { "command": "uv", "args": ["run", "mcp-vertexai-search"] } } }
- Sauvegardez et redémarrez Windsurf, puis vérifiez que le serveur MCP fonctionne.
Exemple de sécurisation des clés API :
{
"mcpServers": {
"vertexai-search": {
"env": {
"GOOGLE_APPLICATION_CREDENTIALS": "/path/to/your/credentials.json"
},
"inputs": {}
}
}
}
Claude
- Assurez-vous que l’environnement Python et les dépendances sont installés.
- Clonez et préparez le dépôt comme ci-dessus.
- Modifiez la configuration de Claude pour ajouter le serveur MCP :
{ "mcpServers": { "vertexai-search": { "command": "uv", "args": ["run", "mcp-vertexai-search"] } } }
- Redémarrez Claude et vérifiez l’état du serveur.
Exemple de sécurisation des clés API :
{
"mcpServers": {
"vertexai-search": {
"env": {
"GOOGLE_APPLICATION_CREDENTIALS": "/path/to/your/credentials.json"
},
"inputs": {}
}
}
}
Cursor
- Installez les prérequis et préparez le dépôt comme expliqué ci-dessus.
- Mettez à jour le fichier de configuration de Cursor :
{ "mcpServers": { "vertexai-search": { "command": "uv", "args": ["run", "mcp-vertexai-search"] } } }
- Sauvegardez, redémarrez Cursor et vérifiez le fonctionnement.
Exemple de sécurisation des clés API :
{
"mcpServers": {
"vertexai-search": {
"env": {
"GOOGLE_APPLICATION_CREDENTIALS": "/path/to/your/credentials.json"
},
"inputs": {}
}
}
}
Cline
- Suivez les étapes de préparation du dépôt ci-dessus.
- Modifiez la configuration de Cline :
{ "mcpServers": { "vertexai-search": { "command": "uv", "args": ["run", "mcp-vertexai-search"] } } }
- Redémarrez Cline et vérifiez que le serveur est actif.
Exemple de sécurisation des clés API :
{
"mcpServers": {
"vertexai-search": {
"env": {
"GOOGLE_APPLICATION_CREDENTIALS": "/path/to/your/credentials.json"
},
"inputs": {}
}
}
}
Comment utiliser ce MCP dans les flows
Utiliser MCP dans FlowHunt
Pour intégrer des serveurs MCP dans votre workflow FlowHunt, commencez par ajouter le composant MCP à votre flow et connectez-le à votre agent IA :

Cliquez sur le composant MCP pour ouvrir le panneau de configuration. Dans la section configuration système MCP, saisissez les détails de votre serveur MCP en utilisant ce format JSON :
{
"vertexai-search": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
Une fois configuré, l’agent IA peut alors utiliser ce MCP comme un outil avec accès à toutes ses fonctions et capacités. N’oubliez pas de remplacer “vertexai-search” par le nom réel de votre serveur MCP et l’URL par l’adresse de votre serveur MCP.
Aperçu
Section | Disponibilité | Détails/Remarques |
---|---|---|
Aperçu | ✅ | Présent dans README.md |
Liste des invites | ⛔ | Aucun modèle d’invite trouvé |
Liste des ressources | ⛔ | Aucune ressource explicite détaillée |
Liste des outils | ⛔ | Aucun outil explicite listé |
Sécurisation des clés API | ✅ | Exemples de configuration fournis |
Prise en charge du sampling (moins important) | ⛔ | Non mentionné |
En se basant sur l’exhaustivité de la documentation et l’exposition des fonctionnalités, ce serveur MCP offre une intégration solide pour Vertex AI Search mais manque de documentation détaillée sur les invites, ressources et outils. Les instructions d’installation et la licence sont claires, mais les fonctionnalités MCP avancées ne sont pas abordées. Note : 5/10
Score MCP
Dispose d’une LICENCE | ✅ (Apache-2.0) |
---|---|
Au moins un outil | ⛔ |
Nombre de forks | 9 |
Nombre d’étoiles | 18 |
Questions fréquemment posées
- Qu'est-ce que le serveur MCP VertexAI Search ?
Le serveur MCP VertexAI Search connecte les assistants IA à Google Vertex AI Search, leur permettant de rechercher et de récupérer des informations à partir de jeux de données privés dans Vertex AI Datastore. Il ancre les réponses IA dans les données de votre organisation pour plus de précision et de contexte.
- Quels sont les cas d'utilisation typiques ?
Les cas d'utilisation incluent l'automatisation de la recherche documentaire en entreprise, l'enrichissement des bases de connaissances, le développement axé sur les données et la création d'assistants IA personnalisés exploitant des jeux de données propriétaires.
- Comment sécuriser mes identifiants API ?
Définissez la variable d'environnement GOOGLE_APPLICATION_CREDENTIALS dans votre configuration MCP, pointant vers le fichier JSON d'identifiants de compte de service Google Cloud. Des exemples de configurations sont fournis pour chaque client supporté.
- Puis-je utiliser plusieurs Vertex AI Datastores ?
Oui, le serveur prend en charge l'intégration avec un ou plusieurs Vertex AI Datastores, ce qui vous permet d'interroger différents jeux de données privés selon vos besoins.
- Où puis-je voir le serveur MCP en action dans FlowHunt ?
Ajoutez le composant MCP à votre flow, configurez-le avec les détails de votre serveur, puis connectez-le à votre agent IA. L'agent pourra alors accéder à toutes les fonctionnalités offertes par le serveur MCP VertexAI Search.
Essayez le serveur MCP VertexAI Search sur FlowHunt
Boostez vos agents IA avec la recherche sur jeux de données privés et des réponses ancrées. Intégrez le serveur MCP VertexAI Search en quelques étapes.