VertexAI Search MCP-server

AI Enterprise Search MCP Server VertexAI

Kontakt oss for å være vert for din MCP-server i FlowHunt

FlowHunt gir et ekstra sikkerhetslag mellom dine interne systemer og AI-verktøy, og gir deg granulær kontroll over hvilke verktøy som er tilgjengelige fra dine MCP-servere. MCP-servere som er hostet i vår infrastruktur kan sømløst integreres med FlowHunts chatbot samt populære AI-plattformer som ChatGPT, Claude og forskjellige AI-editorer.

Hva gjør “VertexAI Search” MCP-server?

VertexAI Search MCP-server er laget for å koble AI-assistenter til Google Vertex AI Search, slik at de kan søke og hente informasjon fra private datasett lagret i Vertex AI Datastore. Ved å utnytte Gemini med Vertex AI-forankring forbedrer denne serveren kvaliteten og nøyaktigheten på søkeresultater ved å forankre AI-svar i dine egne data. Den støtter integrasjon med ett eller flere Vertex AI-datalagre, og er et kraftig verktøy for å utvide LLM-drevne arbeidsflyter med kontekstuelt relevant, organisasjonsspesifikk informasjon. Denne muligheten gir utviklere kraft til å automatisere dokumentsøk, kunnskapsbaseforespørsler og effektivisere tilgangen til bedriftsdata i både utviklings- og produksjonsmiljøer.

Liste over prompt-maler

Ingen prompt-maler er nevnt i depotet.

Logo

Klar til å vokse bedriften din?

Start din gratis prøveperiode i dag og se resultater i løpet av få dager.

Liste over ressurser

Ingen spesifikke ressurser er detaljert i depotet.

Liste over verktøy

Ingen eksplisitt liste over verktøy er oppgitt i depotet eller i server.py.

Bruksområder for denne MCP-serveren

  • Automatisering av bedriftsøk: Integrer Vertex AI Search i arbeidsflyter for å automatisere søk og uthenting av dokumenter fra private datasett, og effektivisere intern informasjonsflyt.
  • Utvidelse av kunnskapsbase: Gi AI-assistenter muligheten til å svare på brukerforespørsler forankret i organisasjonens egen kunnskap, for bedre svarnøyaktighet.
  • Datadrevet beslutningstaking: Gi utviklere mulighet til å hente frem relevant data fra Vertex AI Datastores under applikasjonsutvikling, og støtte beslutninger basert på bevis.
  • Utvikling av skreddersydde AI-assistenter: Bygg domene­spesifikke AI-agenter som kan søke og kontekstualisere svar med utvalgte Vertex AI-datalagre.

Slik setter du det opp

Windsurf

  1. Sørg for at Python og Docker er installert på systemet ditt.
  2. Klon depotet:
    git clone git@github.com:ubie-oss/mcp-vertexai-search.git
  3. Opprett et virtuelt miljø og installer avhengigheter:
    uv venv  
    uv sync --all-extras
    
  4. Legg til MCP-serverkonfigurasjonen i Windsurf-konfigurasjonsfilen slik:
    {
      "mcpServers": {
        "vertexai-search": {
          "command": "uv",
          "args": ["run", "mcp-vertexai-search"]
        }
      }
    }
    
  5. Lagre og start Windsurf på nytt, og verifiser at MCP-serveren kjører.

Eksempel på sikring av API-nøkler:

{
  "mcpServers": {
    "vertexai-search": {
      "env": {
        "GOOGLE_APPLICATION_CREDENTIALS": "/path/to/your/credentials.json"
      },
      "inputs": {}
    }
  }
}

Claude

  1. Sørg for at riktig Python-miljø og avhengigheter er installert.
  2. Klon og sett opp depotet som over.
  3. Rediger Claude-konfigurasjonen for å legge til MCP-serveren:
    {
      "mcpServers": {
        "vertexai-search": {
          "command": "uv",
          "args": ["run", "mcp-vertexai-search"]
        }
      }
    }
    
  4. Start Claude på nytt og sjekk serverstatus.

Eksempel på sikring av API-nøkler:

{
  "mcpServers": {
    "vertexai-search": {
      "env": {
        "GOOGLE_APPLICATION_CREDENTIALS": "/path/to/your/credentials.json"
      },
      "inputs": {}
    }
  }
}

Cursor

  1. Installer nødvendige forutsetninger og sett opp depotet som beskrevet over.
  2. Oppdater Cursor-konfigurasjonsfilen:
    {
      "mcpServers": {
        "vertexai-search": {
          "command": "uv",
          "args": ["run", "mcp-vertexai-search"]
        }
      }
    }
    
  3. Lagre, start Cursor på nytt og verifiser at alt fungerer.

Eksempel på sikring av API-nøkler:

{
  "mcpServers": {
    "vertexai-search": {
      "env": {
        "GOOGLE_APPLICATION_CREDENTIALS": "/path/to/your/credentials.json"
      },
      "inputs": {}
    }
  }
}

Cline

  1. Følg trinnene for oppsett av depotet som over.
  2. Endre Cline-konfigurasjonen:
    {
      "mcpServers": {
        "vertexai-search": {
          "command": "uv",
          "args": ["run", "mcp-vertexai-search"]
        }
      }
    }
    
  3. Start Cline på nytt og bekreft at serveren er aktiv.

Eksempel på sikring av API-nøkler:

{
  "mcpServers": {
    "vertexai-search": {
      "env": {
        "GOOGLE_APPLICATION_CREDENTIALS": "/path/to/your/credentials.json"
      },
      "inputs": {}
    }
  }
}

Slik bruker du denne MCP-en i flows

Bruke MCP i FlowHunt

For å integrere MCP-servere i din FlowHunt-arbeidsflyt, start med å legge til MCP-komponenten i flow-en din og koble den til AI-agenten din:

FlowHunt MCP flow

Klikk på MCP-komponenten for å åpne konfigurasjonspanelet. I systemets MCP-konfigurasjonsseksjon limer du inn MCP-serverdetaljene dine i dette JSON-formatet:

{
  "vertexai-search": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

Når dette er konfigurert, kan AI-agenten bruke denne MCP-en som et verktøy med tilgang til alle dens funksjoner og muligheter. Husk å endre “vertexai-search” til det faktiske navnet på din MCP-server og bytt ut URL-en med din egen MCP-server-URL.


Oversikt

SeksjonTilgjengelighetDetaljer/Notater
OversiktTil stede i README.md
Liste over prompt-malerIngen prompt-maler funnet
Liste over ressurserIngen eksplisitte ressurser detaljert
Liste over verktøyIngen eksplisitte verktøy oppført
Sikring av API-nøklerEksempelkonfigurasjoner gitt
Støtte for sampling (mindre viktig i vurdering)Ikke nevnt

Basert på dokumentasjonens fullstendighet og funksjonseksponering gir denne MCP-serveren en solid integrasjon for Vertex AI Search, men mangler detaljert dokumentasjon om prompt-maler, ressurser og verktøy. Oppsettinstruksjonene og lisensene er tydelige, men avanserte MCP-funksjoner er ikke omtalt. Vurdering: 5/10


MCP-score

Har en LISENS✅ (Apache-2.0)
Har minst ett verktøy
Antall forks9
Antall stjerner18

Vanlige spørsmål

Prøv VertexAI Search MCP-server på FlowHunt

Gi AI-agentene dine superkrefter med søk i private datasett og forankrede svar. Integrer VertexAI Search MCP-server på bare noen få trinn.

Lær mer

Vertica MCP-server
Vertica MCP-server

Vertica MCP-server

Vertica MCP-serveren muliggjør sømløs integrasjon mellom AI-assistenter og OpenText Vertica-databaser, og støtter sikre SQL-operasjoner, masseinnlasting av data...

4 min lesing
Databases MCP Servers +4
AlibabaCloud OpenSearch MCP-server
AlibabaCloud OpenSearch MCP-server

AlibabaCloud OpenSearch MCP-server

AlibabaCloud OpenSearch MCP-server kobler AI-agenter og assistenter til Alibaba Clouds OpenSearch, og muliggjør avansert søk, vektorspørringer og sømløs dataint...

4 min lesing
MCP Servers AlibabaCloud +4
Verodat MCP-server
Verodat MCP-server

Verodat MCP-server

Verodat MCP-serveren kobler AI-assistenter med Verodats kraftige databehandling, og gir sømløs tilgang til data, automatisering og arbeidsflytintegrasjon direkt...

4 min lesing
AI Data Management +4