VertexAI Search MCP Server

Łatwo zintegrować Google Vertex AI Search ze swoimi agentami AI, aby umożliwić niezawodne, uziemione wyszukiwanie w prywatnych zbiorach danych z VertexAI Search MCP Server.

VertexAI Search MCP Server

VertexAI Search MCP Server został zaprojektowany do łączenia asystentów AI z Google Vertex AI Search, umożliwiając im wyszukiwanie i pobieranie informacji z prywatnych zbiorów danych przechowywanych w Vertex AI Datastore. Wykorzystując Gemini z uziemieniem na Vertex AI, serwer ten podnosi jakość i dokładność wyników wyszukiwania, opierając odpowiedzi AI na Twoich własnych danych. Obsługuje integrację z jednym lub wieloma sklepami danych Vertex AI, czyniąc z niego potężne narzędzie do wzbogacania przepływów pracy opartych na LLM o kontekstowe, firmowe informacje. Ta funkcjonalność pozwala programistom automatyzować wyszukiwanie dokumentów, zapytania do bazy wiedzy oraz usprawnia dostęp do danych firmowych w środowiskach deweloperskich i produkcyjnych.

Lista promptów

Brak szablonów promptów wymienionych w repozytorium.

Lista zasobów

Brak szczegółowych zasobów w repozytorium.

Lista narzędzi

Brak jawnej listy narzędzi w repozytorium ani w pliku server.py.

Przypadki użycia tego serwera MCP

  • Automatyzacja wyszukiwania w przedsiębiorstwie: Zintegruj Vertex AI Search z przepływami pracy, aby automatyzować zapytania i pobieranie dokumentów z prywatnych zbiorów danych, usprawniając dostęp do informacji wewnętrznych.
  • Wzbogacanie bazy wiedzy: Wzmacniaj asystentów AI możliwością odpowiadania na zapytania użytkowników na podstawie wiedzy specyficznej dla organizacji, zwiększając dokładność odpowiedzi.
  • Podejmowanie decyzji opartych na danych: Pozwól programistom wydobywać istotne dane z Vertex AI Datastores podczas tworzenia aplikacji, wspierając decyzje oparte na dowodach.
  • Tworzenie niestandardowych asystentów AI: Buduj agentów AI wyspecjalizowanych w danej dziedzinie, zdolnych do wyszukiwania i kontekstualizacji odpowiedzi przy użyciu wyselekcjonowanych sklepów danych Vertex AI.

Jak to skonfigurować

Windsurf

  1. Upewnij się, że Python i Docker są zainstalowane na Twoim systemie.
  2. Sklonuj repozytorium:
    git clone git@github.com:ubie-oss/mcp-vertexai-search.git
  3. Utwórz środowisko wirtualne i zainstaluj zależności:
    uv venv  
    uv sync --all-extras
    
  4. Dodaj konfigurację serwera MCP w pliku konfiguracyjnym Windsurf w następujący sposób:
    {
      "mcpServers": {
        "vertexai-search": {
          "command": "uv",
          "args": ["run", "mcp-vertexai-search"]
        }
      }
    }
    
  5. Zapisz i zrestartuj Windsurf, a następnie sprawdź, czy serwer MCP działa.

Przykład zabezpieczenia kluczy API:

{
  "mcpServers": {
    "vertexai-search": {
      "env": {
        "GOOGLE_APPLICATION_CREDENTIALS": "/path/to/your/credentials.json"
      },
      "inputs": {}
    }
  }
}

Claude

  1. Upewnij się, że masz właściwe środowisko Pythona i zainstalowane zależności.
  2. Sklonuj i skonfiguruj repozytorium jak powyżej.
  3. Edytuj konfigurację Claude, aby dodać serwer MCP:
    {
      "mcpServers": {
        "vertexai-search": {
          "command": "uv",
          "args": ["run", "mcp-vertexai-search"]
        }
      }
    }
    
  4. Zrestartuj Claude i sprawdź status serwera.

Przykład zabezpieczenia kluczy API:

{
  "mcpServers": {
    "vertexai-search": {
      "env": {
        "GOOGLE_APPLICATION_CREDENTIALS": "/path/to/your/credentials.json"
      },
      "inputs": {}
    }
  }
}

Cursor

  1. Zainstaluj wymagane składniki i skonfiguruj repozytorium jak powyżej.
  2. Zaktualizuj plik konfiguracyjny Cursor:
    {
      "mcpServers": {
        "vertexai-search": {
          "command": "uv",
          "args": ["run", "mcp-vertexai-search"]
        }
      }
    }
    
  3. Zapisz, zrestartuj Cursor i sprawdź działanie.

Przykład zabezpieczenia kluczy API:

{
  "mcpServers": {
    "vertexai-search": {
      "env": {
        "GOOGLE_APPLICATION_CREDENTIALS": "/path/to/your/credentials.json"
      },
      "inputs": {}
    }
  }
}

Cline

  1. Wykonaj kroki konfiguracji repozytorium jak powyżej.
  2. Zmodyfikuj konfigurację Cline:
    {
      "mcpServers": {
        "vertexai-search": {
          "command": "uv",
          "args": ["run", "mcp-vertexai-search"]
        }
      }
    }
    
  3. Zrestartuj Cline i upewnij się, że serwer jest aktywny.

Przykład zabezpieczenia kluczy API:

{
  "mcpServers": {
    "vertexai-search": {
      "env": {
        "GOOGLE_APPLICATION_CREDENTIALS": "/path/to/your/credentials.json"
      },
      "inputs": {}
    }
  }
}

Jak używać tego MCP w przepływach

Używanie MCP w FlowHunt

Aby zintegrować serwery MCP w swoim workflow FlowHunt, rozpocznij od dodania komponentu MCP do swojego przepływu i podłączenia go do agenta AI:

FlowHunt MCP flow

Kliknij komponent MCP, aby otworzyć panel konfiguracji. W sekcji konfiguracji systemowej MCP wklej dane serwera MCP w tym formacie JSON:

{
  "vertexai-search": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

Po zapisaniu konfiguracji agent AI może korzystać z tego MCP jako narzędzia ze wszystkimi jego funkcjami i możliwościami. Pamiętaj, aby zamienić “vertexai-search” na faktyczną nazwę swojego serwera MCP oraz podać własny adres URL serwera MCP.


Przegląd

SekcjaDostępnośćSzczegóły/Uwagi
PrzeglądObecny w README.md
Lista promptówBrak szablonów promptów
Lista zasobówBrak jawnych zasobów
Lista narzędziBrak jawnych narzędzi
Zabezpieczenie kluczy APIPrzykłady konfiguracji
Wsparcie próbkowania (mniej istotne w ocenie)Nie wspomniano

Na podstawie kompletności dokumentacji i ekspozycji funkcjonalności, ten serwer MCP zapewnia solidną integrację z Vertex AI Search, ale brakuje szczegółowej dokumentacji dotyczącej promptów, zasobów i narzędzi. Instrukcje konfiguracji i licencjonowanie są jasne, ale zaawansowane funkcje MCP nie są omówione. Ocena: 5/10


Ocena MCP

Czy posiada LICENSE✅ (Apache-2.0)
Ma przynajmniej jedno narzędzie
Liczba forków9
Liczba gwiazdek18

Najczęściej zadawane pytania

Czym jest VertexAI Search MCP Server?

VertexAI Search MCP Server łączy asystentów AI z Google Vertex AI Search, umożliwiając im wyszukiwanie i pobieranie informacji z prywatnych zbiorów danych w Vertex AI Datastore. Uziemia odpowiedzi AI w danych Twojej organizacji dla lepszej dokładności i kontekstu.

Jakie są typowe przypadki użycia?

Przypadki użycia obejmują automatyzację wyszukiwania dokumentów w przedsiębiorstwie, wzbogacanie baz wiedzy, umożliwienie rozwoju opartego na danych oraz budowę niestandardowych asystentów AI korzystających z własnych zbiorów danych.

Jak zabezpieczyć moje poświadczenia API?

Ustaw zmienną środowiskową GOOGLE_APPLICATION_CREDENTIALS w swojej konfiguracji MCP, wskazującą na plik JSON z poświadczeniami konta usługi Google Cloud. Przykładowe konfiguracje są dostarczone dla każdego obsługiwanego klienta.

Czy mogę używać wielu Vertex AI Datastores?

Tak, serwer obsługuje integrację z jednym lub wieloma Vertex AI Datastore, umożliwiając zapytania do różnych prywatnych zbiorów danych w zależności od potrzeb.

Gdzie mogę zobaczyć serwer MCP w akcji w FlowHunt?

Dodaj komponent MCP do swojego flow, skonfiguruj go szczegółami swojego serwera i połącz z agentem AI. Agent będzie miał wtedy dostęp do wszystkich funkcji oferowanych przez VertexAI Search MCP Server.

Wypróbuj VertexAI Search MCP Server na FlowHunt

Przyspiesz swoich agentów AI dzięki wyszukiwaniu w prywatnych zbiorach danych i uziemionym odpowiedziom. Zintegruj VertexAI Search MCP Server w kilku krokach.

Dowiedz się więcej