VertexAI Search MCP Server
Integreer eenvoudig Google Vertex AI Search met uw AI-agenten om betrouwbare, onderbouwde zoekopdrachten uit te voeren op privédatasets met de VertexAI Search MCP Server.

Wat doet de “VertexAI Search” MCP Server?
De VertexAI Search MCP Server is ontworpen om AI-assistenten te verbinden met Google Vertex AI Search, zodat ze kunnen zoeken en informatie ophalen uit privédatasets die zijn opgeslagen in Vertex AI Datastore. Door Gemini te combineren met Vertex AI grounding, verbetert deze server de kwaliteit en nauwkeurigheid van zoekresultaten door AI-antwoorden te baseren op uw eigen gegevens. Het ondersteunt integratie met één of meerdere Vertex AI datastores, waardoor het een krachtig hulpmiddel is om LLM-gedreven workflows te verrijken met contextuele, organisatie-specifieke informatie. Deze mogelijkheid stelt ontwikkelaars in staat om documentzoektocht, kennisbank-vragen en toegang tot enterprise data binnen ontwikkel- en productieomgevingen te automatiseren.
Lijst van Prompts
Er worden geen prompt-templates vermeld in de repository.
Lijst van Bronnen
Er zijn geen specifieke bronnen beschreven in de repository.
Lijst van Tools
Er is geen expliciete lijst van tools opgegeven in de repository of in server.py.
Use-cases van deze MCP Server
- Enterprise Search Automatisering: Integreer Vertex AI Search in workflows om het zoeken en ophalen van documenten uit privédatasets te automatiseren, en interne informatievoorziening te stroomlijnen.
- Kennisbank Verrijking: Verbeter AI-assistenten met het vermogen om gebruikersvragen te beantwoorden op basis van organisatie-specifieke kennis, wat de nauwkeurigheid van antwoorden vergroot.
- Datagedreven Besluitvorming: Stel ontwikkelaars in staat om relevante data uit Vertex AI Datastores naar boven te halen tijdens applicatieontwikkeling, ter ondersteuning van onderbouwde beslissingen.
- Ontwikkeling van Aangepaste AI-assistenten: Bouw domeinspecifieke AI-agenten die kunnen zoeken en antwoorden contextualiseren met behulp van gecureerde Vertex AI datastores.
Hoe stel je het in
Windsurf
- Zorg dat Python en Docker op uw systeem zijn geïnstalleerd.
- Clone de repository:
git clone git@github.com:ubie-oss/mcp-vertexai-search.git
- Maak een virtual environment aan en installeer afhankelijkheden:
uv venv uv sync --all-extras
- Voeg de MCP-serverconfiguratie toe aan het Windsurf-configuratiebestand als volgt:
{ "mcpServers": { "vertexai-search": { "command": "uv", "args": ["run", "mcp-vertexai-search"] } } }
- Sla op en herstart Windsurf, en controleer of de MCP-server draait.
Voorbeeld API-sleutels beveiligen:
{
"mcpServers": {
"vertexai-search": {
"env": {
"GOOGLE_APPLICATION_CREDENTIALS": "/path/to/your/credentials.json"
},
"inputs": {}
}
}
}
Claude
- Zorg dat de juiste Python-omgeving en afhankelijkheden zijn geïnstalleerd.
- Clone en stel de repository in zoals hierboven.
- Bewerk de Claude-configuratie om de MCP-server toe te voegen:
{ "mcpServers": { "vertexai-search": { "command": "uv", "args": ["run", "mcp-vertexai-search"] } } }
- Herstart Claude en controleer de serverstatus.
Voorbeeld API-sleutels beveiligen:
{
"mcpServers": {
"vertexai-search": {
"env": {
"GOOGLE_APPLICATION_CREDENTIALS": "/path/to/your/credentials.json"
},
"inputs": {}
}
}
}
Cursor
- Installeer de vereisten en stel de repository in zoals hierboven beschreven.
- Werk het Cursor-configuratiebestand bij:
{ "mcpServers": { "vertexai-search": { "command": "uv", "args": ["run", "mcp-vertexai-search"] } } }
- Sla op, herstart Cursor, en controleer de werking.
Voorbeeld API-sleutels beveiligen:
{
"mcpServers": {
"vertexai-search": {
"env": {
"GOOGLE_APPLICATION_CREDENTIALS": "/path/to/your/credentials.json"
},
"inputs": {}
}
}
}
Cline
- Volg de stappen voor het instellen van de repository zoals hierboven.
- Pas de Cline-configuratie aan:
{ "mcpServers": { "vertexai-search": { "command": "uv", "args": ["run", "mcp-vertexai-search"] } } }
- Herstart Cline en bevestig dat de server actief is.
Voorbeeld API-sleutels beveiligen:
{
"mcpServers": {
"vertexai-search": {
"env": {
"GOOGLE_APPLICATION_CREDENTIALS": "/path/to/your/credentials.json"
},
"inputs": {}
}
}
}
Hoe gebruikt u deze MCP binnen flows
MCP gebruiken in FlowHunt
Om MCP-servers te integreren in uw FlowHunt-workflow, voegt u het MCP-component toe aan uw flow en verbindt u deze met uw AI-agent:

Klik op het MCP-component om het configuratievenster te openen. Voeg in de systeem-MCP-configuratiesectie uw MCP-serverdetails toe met dit JSON-formaat:
{
"vertexai-search": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
Na configuratie kan de AI-agent deze MCP nu gebruiken als tool, met toegang tot alle functies en mogelijkheden. Vergeet niet “vertexai-search” te vervangen door de daadwerkelijke naam van uw MCP-server en de URL aan te passen naar uw eigen MCP-server URL.
Overzicht
Sectie | Beschikbaarheid | Details/Opmerkingen |
---|---|---|
Overzicht | ✅ | Aanwezig in README.md |
Lijst van Prompts | ⛔ | Geen prompt-templates gevonden |
Lijst van Bronnen | ⛔ | Geen expliciete bronnen beschreven |
Lijst van Tools | ⛔ | Geen expliciete tools vermeld |
API-sleutels beveiligen | ✅ | Configuratievoorbeelden voorzien |
Sampling Support (minder belangrijk bij evaluatie) | ⛔ | Niet vermeld |
Op basis van de volledigheid van de documentatie en feature-exposure, biedt deze MCP-server een degelijke integratie voor Vertex AI Search, maar ontbreekt het aan gedetailleerde documentatie over prompts, bronnen en tools. De installatie-instructies en licentie zijn duidelijk, maar geavanceerde MCP-functionaliteiten worden niet besproken. Beoordeling: 5/10
MCP Score
Heeft een LICENSE | ✅ (Apache-2.0) |
---|---|
Heeft minstens één tool | ⛔ |
Aantal Forks | 9 |
Aantal Sterren | 18 |
Veelgestelde vragen
- Wat is de VertexAI Search MCP Server?
De VertexAI Search MCP Server verbindt AI-assistenten met Google Vertex AI Search, waardoor ze kunnen zoeken en informatie ophalen uit privédatasets in Vertex AI Datastore. Het baseert AI-antwoorden op de gegevens van uw organisatie voor verbeterde nauwkeurigheid en context.
- Wat zijn typische use-cases?
Use-cases omvatten het automatiseren van enterprise document search, het verrijken van kennisbanken, het mogelijk maken van datagedreven ontwikkeling, en het bouwen van aangepaste AI-assistenten die gebruikmaken van eigen datasets.
- Hoe beveilig ik mijn API-gegevens?
Stel de omgevingsvariabele GOOGLE_APPLICATION_CREDENTIALS in in uw MCP-configuratie, wijzend naar uw Google Cloud service-account credentials JSON-bestand. Voor elke ondersteunde client zijn voorbeeldconfiguraties voorzien.
- Kan ik meerdere Vertex AI Datastores gebruiken?
Ja, de server ondersteunt integratie met één of meerdere Vertex AI Datastores, zodat u zo nodig over verschillende privédatasets kunt zoeken.
- Waar kan ik de MCP-server in actie zien binnen FlowHunt?
Voeg het MCP-component toe aan uw flow, configureer het met de details van uw server en verbind het met uw AI-agent. De agent krijgt dan toegang tot alle functies die door de VertexAI Search MCP Server worden geboden.
Probeer VertexAI Search MCP Server op FlowHunt
Geef uw AI-agenten een boost met privédataset-zoekopdrachten en onderbouwde antwoorden. Integreer VertexAI Search MCP Server in slechts een paar stappen.