VertexAI Search MCP Server

AI Enterprise Search MCP Server VertexAI

Kontakt os for at hoste din MCP-server i FlowHunt

FlowHunt giver et ekstra sikkerhedslag mellem dine interne systemer og AI-værktøjer, hvilket giver dig granulær kontrol over hvilke værktøjer der er tilgængelige fra dine MCP-servere. MCP-servere hostet i vores infrastruktur kan problemfrit integreres med FlowHunts chatbot samt populære AI-platforme som ChatGPT, Claude og forskellige AI-editorer.

Hvad gør “VertexAI Search” MCP Server?

VertexAI Search MCP Server er designet til at forbinde AI-assistenter med Google Vertex AI Search, så de kan søge og hente information fra private datasæt, der er gemt i Vertex AI Datastore. Ved at udnytte Gemini sammen med Vertex AI grounding, forbedrer denne server kvaliteten og nøjagtigheden af søgeresultater ved at forankre AI-svar i dine egne data. Den understøtter integration med én eller flere Vertex AI datastores og er dermed et stærkt værktøj til at udvide LLM-baserede arbejdsgange med kontekstuel, organisationsspecifik information. Denne funktionalitet gør det muligt for udviklere at automatisere dokumentsøgning, forespørgsler i vidensbaser og strømline adgang til virksomhedsdata i både udviklings- og produktionsmiljøer.

Liste over Prompts

Ingen prompt-skabeloner er nævnt i repositoryet.

Logo

Klar til at vokse din virksomhed?

Start din gratis prøveperiode i dag og se resultater inden for få dage.

Liste over Ressourcer

Ingen specifikke ressourcer er beskrevet i repositoryet.

Liste over Værktøjer

Ingen eksplicit liste over værktøjer er angivet i repositoryet eller i server.py.

Anvendelsestilfælde for denne MCP Server

  • Automatisering af virksomhedssøgning: Integrér Vertex AI Search i arbejdsgange for at automatisere forespørgsler og hentning af dokumenter fra private datasæt og effektivisere intern informationsadgang.
  • Udvidelse af vidensbase: Giv AI-assistenter mulighed for at besvare brugerspørgsmål forankret i organisationsspecifik viden og forbedre svartilfældets nøjagtighed.
  • Datadrevet beslutningstagning: Muliggør, at udviklere kan fremfinde relevant data fra Vertex AI Datastores under applikationsudvikling og understøtte beslutninger på et evidensbaseret grundlag.
  • Udvikling af brugerdefinerede AI-assistenter: Byg domænespecifikke AI-agenter, der kan søge og sætte svar i kontekst ved at bruge kuraterede Vertex AI datastores.

Sådan opsættes det

Windsurf

  1. Sørg for, at Python og Docker er installeret på dit system.
  2. Klon repositoryet:
    git clone git@github.com:ubie-oss/mcp-vertexai-search.git
  3. Opret et virtuelt miljø og installer afhængigheder:
    uv venv  
    uv sync --all-extras
    
  4. Tilføj MCP server-konfigurationen i Windsurf-konfigurationsfilen således:
    {
      "mcpServers": {
        "vertexai-search": {
          "command": "uv",
          "args": ["run", "mcp-vertexai-search"]
        }
      }
    }
    
  5. Gem og genstart Windsurf, og verificer at MCP-serveren kører.

Eksempel på sikring af API-nøgler:

{
  "mcpServers": {
    "vertexai-search": {
      "env": {
        "GOOGLE_APPLICATION_CREDENTIALS": "/path/to/your/credentials.json"
      },
      "inputs": {}
    }
  }
}

Claude

  1. Sørg for, at det rigtige Python-miljø og nødvendige afhængigheder er installeret.
  2. Klon og opsæt repositoryet som ovenfor.
  3. Redigér Claude-konfigurationen for at tilføje MCP-serveren:
    {
      "mcpServers": {
        "vertexai-search": {
          "command": "uv",
          "args": ["run", "mcp-vertexai-search"]
        }
      }
    }
    
  4. Genstart Claude og tjek server-status.

Eksempel på sikring af API-nøgler:

{
  "mcpServers": {
    "vertexai-search": {
      "env": {
        "GOOGLE_APPLICATION_CREDENTIALS": "/path/to/your/credentials.json"
      },
      "inputs": {}
    }
  }
}

Cursor

  1. Installer forudsætninger og opsæt repositoryet som beskrevet ovenfor.
  2. Opdatér Cursor-konfigurationsfilen:
    {
      "mcpServers": {
        "vertexai-search": {
          "command": "uv",
          "args": ["run", "mcp-vertexai-search"]
        }
      }
    }
    
  3. Gem, genstart Cursor, og verificer driften.

Eksempel på sikring af API-nøgler:

{
  "mcpServers": {
    "vertexai-search": {
      "env": {
        "GOOGLE_APPLICATION_CREDENTIALS": "/path/to/your/credentials.json"
      },
      "inputs": {}
    }
  }
}

Cline

  1. Følg opsætningsvejledningen for repositoryet som ovenfor.
  2. Redigér Cline-konfigurationen:
    {
      "mcpServers": {
        "vertexai-search": {
          "command": "uv",
          "args": ["run", "mcp-vertexai-search"]
        }
      }
    }
    
  3. Genstart Cline og bekræft, at serveren er aktiv.

Eksempel på sikring af API-nøgler:

{
  "mcpServers": {
    "vertexai-search": {
      "env": {
        "GOOGLE_APPLICATION_CREDENTIALS": "/path/to/your/credentials.json"
      },
      "inputs": {}
    }
  }
}

Sådan bruges denne MCP i flows

Brug af MCP i FlowHunt

For at integrere MCP-servere i dit FlowHunt workflow skal du starte med at tilføje MCP-komponenten til dit flow og forbinde den til din AI-agent:

FlowHunt MCP flow

Klik på MCP-komponenten for at åbne konfigurationspanelet. Indsæt dine MCP server-detaljer i systemets MCP-konfigurationssektion ved at bruge dette JSON-format:

{
  "vertexai-search": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

Når dette er konfigureret, kan AI-agenten nu bruge denne MCP som et værktøj med adgang til alle dens funktioner og muligheder. Husk at ændre “vertexai-search” til navnet på din MCP-server og erstatte URL’en med din egen MCP-server-URL.


Oversigt

SektionTilgængelighedDetaljer/Noter
OversigtTil stede i README.md
Liste over PromptsIngen prompt-skabeloner fundet
Liste over RessourcerIngen eksplicitte ressourcer beskrevet
Liste over VærktøjerIngen eksplicitte værktøjer listet
Sikring af API-nøglerKonfigurationseksempler angivet
Sampling Support (mindre vigtigt for vurdering)Ikke nævnt

Baseret på fuldstændigheden af dokumentation og feature-eksponering leverer denne MCP-server en solid integration til Vertex AI Search, men mangler detaljeret dokumentation om prompts, ressourcer og værktøjer. Opsætningsinstrukser og licensering er klare, men avancerede MCP-funktioner er ikke diskuteret. Bedømmelse: 5/10


MCP-score

Har en LICENSE✅ (Apache-2.0)
Har mindst ét værktøj
Antal forks9
Antal stjerner18

Ofte stillede spørgsmål

Prøv VertexAI Search MCP Server på FlowHunt

Giv dine AI-agenter ekstra kraft med søgning i private datasæt og forankrede svar. Integrér VertexAI Search MCP Server på få trin.

Lær mere

Vertica MCP-server
Vertica MCP-server

Vertica MCP-server

Vertica MCP-serveren muliggør problemfri integration mellem AI-assistenter og OpenText Vertica-databaser og understøtter sikre SQL-operationer, bulk dataindlæsn...

4 min læsning
Databases MCP Servers +4
AlibabaCloud OpenSearch MCP Server
AlibabaCloud OpenSearch MCP Server

AlibabaCloud OpenSearch MCP Server

AlibabaCloud OpenSearch MCP Server forbinder AI-agenter og assistenter med Alibaba Cloud's OpenSearch og muliggør avanceret søgning, vektorspørgsmål og problemf...

4 min læsning
MCP Servers AlibabaCloud +4
OpenAI WebSearch MCP Server
OpenAI WebSearch MCP Server

OpenAI WebSearch MCP Server

Giv dine AI-assistenter adgang til realtids websøgningsdata med OpenAI WebSearch MCP Server. Denne integration tillader FlowHunt og andre platforme at levere op...

4 min læsning
AI Web Search +4