Serveur MCP VertexAI Search

AI Enterprise Search MCP Server VertexAI

Contactez-nous pour héberger votre serveur MCP dans FlowHunt

FlowHunt fournit une couche de sécurité supplémentaire entre vos systèmes internes et les outils d'IA, vous donnant un contrôle granulaire sur les outils accessibles depuis vos serveurs MCP. Les serveurs MCP hébergés dans notre infrastructure peuvent être intégrés de manière transparente avec le chatbot de FlowHunt ainsi qu'avec les plateformes d'IA populaires comme ChatGPT, Claude et divers éditeurs d'IA.

Que fait le serveur MCP “VertexAI Search” ?

Le serveur MCP VertexAI Search est conçu pour connecter les assistants IA à Google Vertex AI Search, leur permettant d’interroger et de récupérer des informations à partir de jeux de données privés stockés dans Vertex AI Datastore. En exploitant Gemini avec l’ancrage Vertex AI, ce serveur améliore la qualité et la précision des résultats de recherche en ancrant les réponses IA dans vos propres données. Il prend en charge l’intégration avec un ou plusieurs data stores Vertex AI, ce qui en fait un outil puissant pour enrichir les workflows pilotés par LLM avec des informations contextuelles spécifiques à l’organisation. Cette capacité permet aux développeurs d’automatiser la recherche documentaire, les requêtes sur les bases de connaissances et de fluidifier l’accès aux données d’entreprise dans les environnements de développement et de production.

Liste des invites

Aucun modèle d’invite n’est mentionné dans le dépôt.

Logo

Prêt à développer votre entreprise?

Commencez votre essai gratuit aujourd'hui et voyez les résultats en quelques jours.

Liste des ressources

Aucune ressource spécifique n’est détaillée dans le dépôt.

Liste des outils

Aucune liste explicite d’outils n’est fournie dans le dépôt ou dans server.py.

Cas d’utilisation de ce serveur MCP

  • Automatisation de la recherche d’entreprise : Intégrez Vertex AI Search dans les workflows pour automatiser l’interrogation et la récupération de documents à partir de jeux de données privés, simplifiant ainsi l’accès à l’information interne.
  • Enrichissement de la base de connaissances : Améliorez les assistants IA avec la capacité de répondre à des requêtes utilisateurs ancrées dans la connaissance propre à l’organisation, augmentant la précision des réponses.
  • Prise de décision basée sur les données : Permettez aux développeurs de faire remonter des données pertinentes depuis Vertex AI Datastores lors du développement d’applications, pour favoriser des décisions fondées sur des preuves.
  • Développement d’assistants IA personnalisés : Créez des agents IA spécialisés, capables de rechercher et de contextualiser les réponses en utilisant des data stores Vertex AI sélectionnés.

Comment le configurer

Windsurf

  1. Assurez-vous que Python et Docker sont installés sur votre système.
  2. Clonez le dépôt :
    git clone git@github.com:ubie-oss/mcp-vertexai-search.git
  3. Créez un environnement virtuel et installez les dépendances :
    uv venv  
    uv sync --all-extras
    
  4. Ajoutez la configuration du serveur MCP dans le fichier de configuration Windsurf comme suit :
    {
      "mcpServers": {
        "vertexai-search": {
          "command": "uv",
          "args": ["run", "mcp-vertexai-search"]
        }
      }
    }
    
  5. Sauvegardez et redémarrez Windsurf, puis vérifiez que le serveur MCP fonctionne.

Exemple de sécurisation des clés API :

{
  "mcpServers": {
    "vertexai-search": {
      "env": {
        "GOOGLE_APPLICATION_CREDENTIALS": "/path/to/your/credentials.json"
      },
      "inputs": {}
    }
  }
}

Claude

  1. Assurez-vous que l’environnement Python et les dépendances sont installés.
  2. Clonez et préparez le dépôt comme ci-dessus.
  3. Modifiez la configuration de Claude pour ajouter le serveur MCP :
    {
      "mcpServers": {
        "vertexai-search": {
          "command": "uv",
          "args": ["run", "mcp-vertexai-search"]
        }
      }
    }
    
  4. Redémarrez Claude et vérifiez l’état du serveur.

Exemple de sécurisation des clés API :

{
  "mcpServers": {
    "vertexai-search": {
      "env": {
        "GOOGLE_APPLICATION_CREDENTIALS": "/path/to/your/credentials.json"
      },
      "inputs": {}
    }
  }
}

Cursor

  1. Installez les prérequis et préparez le dépôt comme expliqué ci-dessus.
  2. Mettez à jour le fichier de configuration de Cursor :
    {
      "mcpServers": {
        "vertexai-search": {
          "command": "uv",
          "args": ["run", "mcp-vertexai-search"]
        }
      }
    }
    
  3. Sauvegardez, redémarrez Cursor et vérifiez le fonctionnement.

Exemple de sécurisation des clés API :

{
  "mcpServers": {
    "vertexai-search": {
      "env": {
        "GOOGLE_APPLICATION_CREDENTIALS": "/path/to/your/credentials.json"
      },
      "inputs": {}
    }
  }
}

Cline

  1. Suivez les étapes de préparation du dépôt ci-dessus.
  2. Modifiez la configuration de Cline :
    {
      "mcpServers": {
        "vertexai-search": {
          "command": "uv",
          "args": ["run", "mcp-vertexai-search"]
        }
      }
    }
    
  3. Redémarrez Cline et vérifiez que le serveur est actif.

Exemple de sécurisation des clés API :

{
  "mcpServers": {
    "vertexai-search": {
      "env": {
        "GOOGLE_APPLICATION_CREDENTIALS": "/path/to/your/credentials.json"
      },
      "inputs": {}
    }
  }
}

Comment utiliser ce MCP dans les flows

Utiliser MCP dans FlowHunt

Pour intégrer des serveurs MCP dans votre workflow FlowHunt, commencez par ajouter le composant MCP à votre flow et connectez-le à votre agent IA :

Flux MCP FlowHunt

Cliquez sur le composant MCP pour ouvrir le panneau de configuration. Dans la section configuration système MCP, saisissez les détails de votre serveur MCP en utilisant ce format JSON :

{
  "vertexai-search": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

Une fois configuré, l’agent IA peut alors utiliser ce MCP comme un outil avec accès à toutes ses fonctions et capacités. N’oubliez pas de remplacer “vertexai-search” par le nom réel de votre serveur MCP et l’URL par l’adresse de votre serveur MCP.


Aperçu

SectionDisponibilitéDétails/Remarques
AperçuPrésent dans README.md
Liste des invitesAucun modèle d’invite trouvé
Liste des ressourcesAucune ressource explicite détaillée
Liste des outilsAucun outil explicite listé
Sécurisation des clés APIExemples de configuration fournis
Prise en charge du sampling (moins important)Non mentionné

En se basant sur l’exhaustivité de la documentation et l’exposition des fonctionnalités, ce serveur MCP offre une intégration solide pour Vertex AI Search mais manque de documentation détaillée sur les invites, ressources et outils. Les instructions d’installation et la licence sont claires, mais les fonctionnalités MCP avancées ne sont pas abordées. Note : 5/10


Score MCP

Dispose d’une LICENCE✅ (Apache-2.0)
Au moins un outil
Nombre de forks9
Nombre d’étoiles18

Questions fréquemment posées

Essayez le serveur MCP VertexAI Search sur FlowHunt

Boostez vos agents IA avec la recherche sur jeux de données privés et des réponses ancrées. Intégrez le serveur MCP VertexAI Search en quelques étapes.

En savoir plus

Vertex AI Search
Vertex AI Search

Vertex AI Search

Intégrez FlowHunt à Vertex AI Search pour permettre une récupération de documents sécurisée et contextuelle, alimentée par Gemini. Recherchez dans plusieurs Dat...

5 min de lecture
AI Vertex AI +4
Vectorize MCP
Vectorize MCP

Vectorize MCP

Intégrez FlowHunt avec le serveur Vectorize MCP pour activer la recherche vectorielle avancée, la récupération de documents et l’extraction intelligente de text...

5 min de lecture
AI Vectorize +4
Serveur MCP Vertica
Serveur MCP Vertica

Serveur MCP Vertica

Le serveur Vertica MCP permet une intégration transparente entre les assistants IA et les bases de données OpenText Vertica, prenant en charge les opérations SQ...

5 min de lecture
Databases MCP Servers +4