VertexAI Search MCP Server
Integrieren Sie Google Vertex AI Search mühelos mit Ihren KI-Agenten, um eine zuverlässige, fundierte Suche über private Datensätze mit dem VertexAI Search MCP Server zu ermöglichen.

Was macht der “VertexAI Search” MCP Server?
Der VertexAI Search MCP Server ist dafür konzipiert, KI-Assistenten mit Google Vertex AI Search zu verbinden und ihnen so zu ermöglichen, Informationen aus privaten Datensätzen im Vertex AI Datastore zu suchen und abzurufen. Durch die Nutzung von Gemini mit Vertex AI Grounding verbessert dieser Server die Qualität und Genauigkeit der Suchergebnisse, indem KI-Antworten in Ihren proprietären Daten verankert werden. Er unterstützt die Integration mit einem oder mehreren Vertex AI Datastores und ist damit ein leistungsstarkes Werkzeug, um LLM-basierte Workflows mit kontextuell relevanten, unternehmensspezifischen Informationen zu erweitern. Diese Fähigkeit ermöglicht es Entwicklern, die Dokumentensuche zu automatisieren, Wissensdatenbanken abzufragen und den Zugriff auf Unternehmensdaten in Entwicklungs- und Produktionsumgebungen zu vereinfachen.
Liste der Prompts
Im Repository sind keine Prompt-Vorlagen angegeben.
Liste der Ressourcen
Im Repository sind keine spezifischen Ressourcen aufgeführt.
Liste der Tools
Im Repository oder in server.py ist keine explizite Liste von Tools enthalten.
Anwendungsfälle dieses MCP Servers
- Automatisierung der Unternehmenssuche: Integrieren Sie Vertex AI Search in Workflows, um das Abfragen und Abrufen von Dokumenten aus privaten Datensätzen zu automatisieren und den internen Informationszugang zu beschleunigen.
- Erweiterung von Wissensdatenbanken: Statten Sie KI-Assistenten mit der Fähigkeit aus, Nutzeranfragen auf Basis von organisationsspezifischem Wissen zu beantworten und so die Antwortgenauigkeit zu erhöhen.
- Datengetriebene Entscheidungsfindung: Ermöglichen Sie es Entwicklern, während der Anwendungsentwicklung relevante Daten aus Vertex AI Datastores abzurufen und dadurch fundierte Entscheidungen zu treffen.
- Entwicklung individueller KI-Assistenten: Erstellen Sie domänenspezifische KI-Agenten, die in der Lage sind, in kuratierten Vertex AI Datastores zu suchen und ihre Antworten zu kontextualisieren.
So richten Sie es ein
Windsurf
- Stellen Sie sicher, dass Python und Docker auf Ihrem System installiert sind.
- Klonen Sie das Repository:
git clone git@github.com:ubie-oss/mcp-vertexai-search.git
- Erstellen Sie eine virtuelle Umgebung und installieren Sie die Abhängigkeiten:
uv venv uv sync --all-extras
- Fügen Sie die MCP-Server-Konfiguration in die Windsurf-Konfigurationsdatei wie folgt ein:
{ "mcpServers": { "vertexai-search": { "command": "uv", "args": ["run", "mcp-vertexai-search"] } } }
- Speichern und starten Sie Windsurf neu und prüfen Sie, ob der MCP Server läuft.
Beispiel für das Absichern der API-Schlüssel:
{
"mcpServers": {
"vertexai-search": {
"env": {
"GOOGLE_APPLICATION_CREDENTIALS": "/pfad/zu/ihren/credentials.json"
},
"inputs": {}
}
}
}
Claude
- Stellen Sie sicher, dass eine geeignete Python-Umgebung und alle Abhängigkeiten installiert sind.
- Klonen und richten Sie das Repository wie oben beschrieben ein.
- Bearbeiten Sie die Claude-Konfiguration, um den MCP Server hinzuzufügen:
{ "mcpServers": { "vertexai-search": { "command": "uv", "args": ["run", "mcp-vertexai-search"] } } }
- Starten Sie Claude neu und prüfen Sie den Serverstatus.
Beispiel für das Absichern der API-Schlüssel:
{
"mcpServers": {
"vertexai-search": {
"env": {
"GOOGLE_APPLICATION_CREDENTIALS": "/pfad/zu/ihren/credentials.json"
},
"inputs": {}
}
}
}
Cursor
- Installieren Sie die Voraussetzungen und richten Sie das Repository wie oben beschrieben ein.
- Aktualisieren Sie die Cursor-Konfigurationsdatei:
{ "mcpServers": { "vertexai-search": { "command": "uv", "args": ["run", "mcp-vertexai-search"] } } }
- Speichern Sie, starten Sie Cursor neu und prüfen Sie den Betrieb.
Beispiel für das Absichern der API-Schlüssel:
{
"mcpServers": {
"vertexai-search": {
"env": {
"GOOGLE_APPLICATION_CREDENTIALS": "/pfad/zu/ihren/credentials.json"
},
"inputs": {}
}
}
}
Cline
- Folgen Sie den oben genannten Schritten für die Repository-Einrichtung.
- Passen Sie die Cline-Konfiguration an:
{ "mcpServers": { "vertexai-search": { "command": "uv", "args": ["run", "mcp-vertexai-search"] } } }
- Starten Sie Cline neu und prüfen Sie, ob der Server aktiv ist.
Beispiel für das Absichern der API-Schlüssel:
{
"mcpServers": {
"vertexai-search": {
"env": {
"GOOGLE_APPLICATION_CREDENTIALS": "/pfad/zu/ihren/credentials.json"
},
"inputs": {}
}
}
}
So nutzen Sie diesen MCP in Flows
MCP in FlowHunt verwenden
Um MCP-Server in Ihren FlowHunt-Workflow zu integrieren, fügen Sie zunächst die MCP-Komponente zu Ihrem Flow hinzu und verbinden Sie sie mit Ihrem KI-Agenten:

Klicken Sie auf die MCP-Komponente, um das Konfigurationspanel zu öffnen. Im Bereich der System-MCP-Konfiguration fügen Sie Ihre MCP-Serverdetails in folgendem JSON-Format ein:
{
"vertexai-search": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
Nach der Konfiguration kann der KI-Agent diesen MCP als Tool mit Zugriff auf alle seine Funktionen und Fähigkeiten nutzen. Denken Sie daran, “vertexai-search” durch den tatsächlichen Namen Ihres MCP-Servers zu ersetzen und die URL entsprechend Ihrer MCP-Server-Adresse anzupassen.
Übersicht
Abschnitt | Verfügbarkeit | Details/Anmerkungen |
---|---|---|
Übersicht | ✅ | Im README.md vorhanden |
Liste der Prompts | ⛔ | Keine Prompt-Vorlagen gefunden |
Liste der Ressourcen | ⛔ | Keine expliziten Ressourcen aufgeführt |
Liste der Tools | ⛔ | Keine expliziten Tools gelistet |
API-Schlüssel absichern | ✅ | Beispielkonfigurationen verfügbar |
Sampling-Unterstützung (weniger wichtig) | ⛔ | Nicht erwähnt |
Auf Basis der Vollständigkeit der Dokumentation und der Funktionsübersicht bietet dieser MCP Server eine solide Integration für Vertex AI Search, es fehlen jedoch detaillierte Dokumentationen zu Prompts, Ressourcen und Tools. Die Einrichtungshinweise und Lizenzierung sind klar, fortgeschrittene MCP-Funktionen werden jedoch nicht behandelt. Bewertung: 5/10
MCP Score
Hat eine LICENSE | ✅ (Apache-2.0) |
---|---|
Mindestens ein Tool | ⛔ |
Anzahl der Forks | 9 |
Anzahl der Stars | 18 |
Häufig gestellte Fragen
- Was ist der VertexAI Search MCP Server?
Der VertexAI Search MCP Server verbindet KI-Assistenten mit Google Vertex AI Search, sodass sie Informationen aus privaten Datensätzen im Vertex AI Datastore suchen und abrufen können. Er verankert KI-Antworten in den Daten Ihrer Organisation für höhere Genauigkeit und mehr Kontext.
- Was sind typische Anwendungsfälle?
Anwendungsfälle sind die Automatisierung der unternehmensweiten Dokumentsuche, die Erweiterung von Wissensdatenbanken, die Ermöglichung datengetriebener Entwicklungen und der Aufbau individueller KI-Assistenten, die auf proprietäre Datensätze zugreifen.
- Wie sichere ich meine API-Zugangsdaten?
Setzen Sie die Umgebungsvariable GOOGLE_APPLICATION_CREDENTIALS in Ihrer MCP-Konfiguration und verweisen Sie dabei auf Ihre Google Cloud Service Account Credentials (JSON-Datei). Beispielkonfigurationen finden Sie für jeden unterstützten Client.
- Kann ich mehrere Vertex AI Datastores verwenden?
Ja, der Server unterstützt die Integration mit einem oder mehreren Vertex AI Datastores und ermöglicht Ihnen, bei Bedarf über mehrere private Datensätze hinweg abzufragen.
- Wo kann ich den MCP Server in FlowHunt in Aktion sehen?
Fügen Sie die MCP-Komponente zu Ihrem Flow hinzu, konfigurieren Sie sie mit den Details Ihres Servers und verbinden Sie sie mit Ihrem KI-Agenten. Der Agent kann dann auf alle vom VertexAI Search MCP Server bereitgestellten Funktionen zugreifen.
Testen Sie den VertexAI Search MCP Server auf FlowHunt
Statten Sie Ihre KI-Agenten mit privater Datensatzsuche und fundierten Antworten aus. Integrieren Sie den VertexAI Search MCP Server in nur wenigen Schritten.