VertexAI Search MCP Server
Łatwo zintegrować Google Vertex AI Search ze swoimi agentami AI, aby umożliwić niezawodne, uziemione wyszukiwanie w prywatnych zbiorach danych z VertexAI Search MCP Server.

Co robi serwer MCP “VertexAI Search”?
VertexAI Search MCP Server został zaprojektowany do łączenia asystentów AI z Google Vertex AI Search, umożliwiając im wyszukiwanie i pobieranie informacji z prywatnych zbiorów danych przechowywanych w Vertex AI Datastore. Wykorzystując Gemini z uziemieniem na Vertex AI, serwer ten podnosi jakość i dokładność wyników wyszukiwania, opierając odpowiedzi AI na Twoich własnych danych. Obsługuje integrację z jednym lub wieloma sklepami danych Vertex AI, czyniąc z niego potężne narzędzie do wzbogacania przepływów pracy opartych na LLM o kontekstowe, firmowe informacje. Ta funkcjonalność pozwala programistom automatyzować wyszukiwanie dokumentów, zapytania do bazy wiedzy oraz usprawnia dostęp do danych firmowych w środowiskach deweloperskich i produkcyjnych.
Lista promptów
Brak szablonów promptów wymienionych w repozytorium.
Lista zasobów
Brak szczegółowych zasobów w repozytorium.
Lista narzędzi
Brak jawnej listy narzędzi w repozytorium ani w pliku server.py.
Przypadki użycia tego serwera MCP
- Automatyzacja wyszukiwania w przedsiębiorstwie: Zintegruj Vertex AI Search z przepływami pracy, aby automatyzować zapytania i pobieranie dokumentów z prywatnych zbiorów danych, usprawniając dostęp do informacji wewnętrznych.
- Wzbogacanie bazy wiedzy: Wzmacniaj asystentów AI możliwością odpowiadania na zapytania użytkowników na podstawie wiedzy specyficznej dla organizacji, zwiększając dokładność odpowiedzi.
- Podejmowanie decyzji opartych na danych: Pozwól programistom wydobywać istotne dane z Vertex AI Datastores podczas tworzenia aplikacji, wspierając decyzje oparte na dowodach.
- Tworzenie niestandardowych asystentów AI: Buduj agentów AI wyspecjalizowanych w danej dziedzinie, zdolnych do wyszukiwania i kontekstualizacji odpowiedzi przy użyciu wyselekcjonowanych sklepów danych Vertex AI.
Jak to skonfigurować
Windsurf
- Upewnij się, że Python i Docker są zainstalowane na Twoim systemie.
- Sklonuj repozytorium:
git clone git@github.com:ubie-oss/mcp-vertexai-search.git
- Utwórz środowisko wirtualne i zainstaluj zależności:
uv venv uv sync --all-extras
- Dodaj konfigurację serwera MCP w pliku konfiguracyjnym Windsurf w następujący sposób:
{ "mcpServers": { "vertexai-search": { "command": "uv", "args": ["run", "mcp-vertexai-search"] } } }
- Zapisz i zrestartuj Windsurf, a następnie sprawdź, czy serwer MCP działa.
Przykład zabezpieczenia kluczy API:
{
"mcpServers": {
"vertexai-search": {
"env": {
"GOOGLE_APPLICATION_CREDENTIALS": "/path/to/your/credentials.json"
},
"inputs": {}
}
}
}
Claude
- Upewnij się, że masz właściwe środowisko Pythona i zainstalowane zależności.
- Sklonuj i skonfiguruj repozytorium jak powyżej.
- Edytuj konfigurację Claude, aby dodać serwer MCP:
{ "mcpServers": { "vertexai-search": { "command": "uv", "args": ["run", "mcp-vertexai-search"] } } }
- Zrestartuj Claude i sprawdź status serwera.
Przykład zabezpieczenia kluczy API:
{
"mcpServers": {
"vertexai-search": {
"env": {
"GOOGLE_APPLICATION_CREDENTIALS": "/path/to/your/credentials.json"
},
"inputs": {}
}
}
}
Cursor
- Zainstaluj wymagane składniki i skonfiguruj repozytorium jak powyżej.
- Zaktualizuj plik konfiguracyjny Cursor:
{ "mcpServers": { "vertexai-search": { "command": "uv", "args": ["run", "mcp-vertexai-search"] } } }
- Zapisz, zrestartuj Cursor i sprawdź działanie.
Przykład zabezpieczenia kluczy API:
{
"mcpServers": {
"vertexai-search": {
"env": {
"GOOGLE_APPLICATION_CREDENTIALS": "/path/to/your/credentials.json"
},
"inputs": {}
}
}
}
Cline
- Wykonaj kroki konfiguracji repozytorium jak powyżej.
- Zmodyfikuj konfigurację Cline:
{ "mcpServers": { "vertexai-search": { "command": "uv", "args": ["run", "mcp-vertexai-search"] } } }
- Zrestartuj Cline i upewnij się, że serwer jest aktywny.
Przykład zabezpieczenia kluczy API:
{
"mcpServers": {
"vertexai-search": {
"env": {
"GOOGLE_APPLICATION_CREDENTIALS": "/path/to/your/credentials.json"
},
"inputs": {}
}
}
}
Jak używać tego MCP w przepływach
Używanie MCP w FlowHunt
Aby zintegrować serwery MCP w swoim workflow FlowHunt, rozpocznij od dodania komponentu MCP do swojego przepływu i podłączenia go do agenta AI:

Kliknij komponent MCP, aby otworzyć panel konfiguracji. W sekcji konfiguracji systemowej MCP wklej dane serwera MCP w tym formacie JSON:
{
"vertexai-search": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
Po zapisaniu konfiguracji agent AI może korzystać z tego MCP jako narzędzia ze wszystkimi jego funkcjami i możliwościami. Pamiętaj, aby zamienić “vertexai-search” na faktyczną nazwę swojego serwera MCP oraz podać własny adres URL serwera MCP.
Przegląd
Sekcja | Dostępność | Szczegóły/Uwagi |
---|---|---|
Przegląd | ✅ | Obecny w README.md |
Lista promptów | ⛔ | Brak szablonów promptów |
Lista zasobów | ⛔ | Brak jawnych zasobów |
Lista narzędzi | ⛔ | Brak jawnych narzędzi |
Zabezpieczenie kluczy API | ✅ | Przykłady konfiguracji |
Wsparcie próbkowania (mniej istotne w ocenie) | ⛔ | Nie wspomniano |
Na podstawie kompletności dokumentacji i ekspozycji funkcjonalności, ten serwer MCP zapewnia solidną integrację z Vertex AI Search, ale brakuje szczegółowej dokumentacji dotyczącej promptów, zasobów i narzędzi. Instrukcje konfiguracji i licencjonowanie są jasne, ale zaawansowane funkcje MCP nie są omówione. Ocena: 5/10
Ocena MCP
Czy posiada LICENSE | ✅ (Apache-2.0) |
---|---|
Ma przynajmniej jedno narzędzie | ⛔ |
Liczba forków | 9 |
Liczba gwiazdek | 18 |
Najczęściej zadawane pytania
- Czym jest VertexAI Search MCP Server?
VertexAI Search MCP Server łączy asystentów AI z Google Vertex AI Search, umożliwiając im wyszukiwanie i pobieranie informacji z prywatnych zbiorów danych w Vertex AI Datastore. Uziemia odpowiedzi AI w danych Twojej organizacji dla lepszej dokładności i kontekstu.
- Jakie są typowe przypadki użycia?
Przypadki użycia obejmują automatyzację wyszukiwania dokumentów w przedsiębiorstwie, wzbogacanie baz wiedzy, umożliwienie rozwoju opartego na danych oraz budowę niestandardowych asystentów AI korzystających z własnych zbiorów danych.
- Jak zabezpieczyć moje poświadczenia API?
Ustaw zmienną środowiskową GOOGLE_APPLICATION_CREDENTIALS w swojej konfiguracji MCP, wskazującą na plik JSON z poświadczeniami konta usługi Google Cloud. Przykładowe konfiguracje są dostarczone dla każdego obsługiwanego klienta.
- Czy mogę używać wielu Vertex AI Datastores?
Tak, serwer obsługuje integrację z jednym lub wieloma Vertex AI Datastore, umożliwiając zapytania do różnych prywatnych zbiorów danych w zależności od potrzeb.
- Gdzie mogę zobaczyć serwer MCP w akcji w FlowHunt?
Dodaj komponent MCP do swojego flow, skonfiguruj go szczegółami swojego serwera i połącz z agentem AI. Agent będzie miał wtedy dostęp do wszystkich funkcji oferowanych przez VertexAI Search MCP Server.
Wypróbuj VertexAI Search MCP Server na FlowHunt
Przyspiesz swoich agentów AI dzięki wyszukiwaniu w prywatnych zbiorach danych i uziemionym odpowiedziom. Zintegruj VertexAI Search MCP Server w kilku krokach.