VertexAI Search MCP-server

AI Enterprise Search MCP Server VertexAI

Kontakta oss för att vara värd för din MCP-server i FlowHunt

FlowHunt erbjuder ett extra säkerhetslager mellan dina interna system och AI-verktyg, vilket ger dig granulär kontroll över vilka verktyg som är tillgängliga från dina MCP-servrar. MCP-servrar som hostas i vår infrastruktur kan sömlöst integreras med FlowHunts chatbot samt populära AI-plattformar som ChatGPT, Claude och olika AI-redigerare.

Vad gör “VertexAI Search” MCP-servern?

VertexAI Search MCP-servern är utformad för att koppla AI-assistenter till Google Vertex AI Search, vilket gör det möjligt att söka och hämta information från privata dataset som lagras i Vertex AI Datastore. Genom att använda Gemini med Vertex AI-grounding förbättrar denna server kvaliteten och noggrannheten i sökresultat genom att grunda AI-svar i din egen data. Den stödjer integration med en eller flera Vertex AI-databaser, vilket gör den till ett kraftfullt verktyg för att förstärka LLM-drivna arbetsflöden med kontextuellt relevant, organisationsspecifik information. Denna möjlighet ger utvecklare kraften att automatisera dokumentsökning, frågor till kunskapsbaser och effektivisera åtkomst till företagsdata i både utvecklings- och produktionsmiljöer.

Lista över Prompts

Inga promptmallar nämns i repot.

Logo

Redo att växa ditt företag?

Starta din kostnadsfria provperiod idag och se resultat inom några dagar.

Lista över Resurser

Inga specifika resurser beskrivs i repot.

Lista över Verktyg

Ingen explicit lista med verktyg finns i repot eller i server.py.

Användningsområden för denna MCP-server

  • Automatisering av företagssök: Integrera Vertex AI Search i arbetsflöden för att automatisera frågor och hämtning av dokument från privata dataset och effektivisera intern informationsåtkomst.
  • Förstärkning av kunskapsbas: Förbättra AI-assistenter med förmågan att besvara användarfrågor grundade i organisationens specifika kunskap och öka svarens noggrannhet.
  • Datadrivet beslutsfattande: Gör det möjligt för utvecklare att lyfta fram relevant data från Vertex AI Datastores under applikationsutveckling för att stödja faktabaserade beslut.
  • Utveckling av egna AI-assistenter: Bygg domänspecifika AI-agenter som kan söka och kontextualisera svar med hjälp av utvalda Vertex AI-databaser.

Så här sätter du upp det

Windsurf

  1. Säkerställ att Python och Docker är installerade på ditt system.
  2. Klona repot:
    git clone git@github.com:ubie-oss/mcp-vertexai-search.git
  3. Skapa en virtuell miljö och installera beroenden:
    uv venv  
    uv sync --all-extras
    
  4. Lägg till MCP-serverkonfigurationen i Windsurfs konfigurationsfil på följande sätt:
    {
      "mcpServers": {
        "vertexai-search": {
          "command": "uv",
          "args": ["run", "mcp-vertexai-search"]
        }
      }
    }
    
  5. Spara och starta om Windsurf, och kontrollera att MCP-servern körs.

Exempel på att säkra API-nycklar:

{
  "mcpServers": {
    "vertexai-search": {
      "env": {
        "GOOGLE_APPLICATION_CREDENTIALS": "/path/to/your/credentials.json"
      },
      "inputs": {}
    }
  }
}

Claude

  1. Säkerställ att rätt Python-miljö och beroenden är installerade.
  2. Klona och sätt upp repot som ovan.
  3. Redigera Claude-konfigurationen för att lägga till MCP-servern:
    {
      "mcpServers": {
        "vertexai-search": {
          "command": "uv",
          "args": ["run", "mcp-vertexai-search"]
        }
      }
    }
    
  4. Starta om Claude och kontrollera serverstatus.

Exempel på att säkra API-nycklar:

{
  "mcpServers": {
    "vertexai-search": {
      "env": {
        "GOOGLE_APPLICATION_CREDENTIALS": "/path/to/your/credentials.json"
      },
      "inputs": {}
    }
  }
}

Cursor

  1. Installera förutsättningar och sätt upp repot enligt ovan.
  2. Uppdatera Cursor-konfigurationsfilen:
    {
      "mcpServers": {
        "vertexai-search": {
          "command": "uv",
          "args": ["run", "mcp-vertexai-search"]
        }
      }
    }
    
  3. Spara, starta om Cursor och kontrollera funktionen.

Exempel på att säkra API-nycklar:

{
  "mcpServers": {
    "vertexai-search": {
      "env": {
        "GOOGLE_APPLICATION_CREDENTIALS": "/path/to/your/credentials.json"
      },
      "inputs": {}
    }
  }
}

Cline

  1. Följ stegen för att sätta upp repot enligt ovan.
  2. Ändra Cline-konfigurationen:
    {
      "mcpServers": {
        "vertexai-search": {
          "command": "uv",
          "args": ["run", "mcp-vertexai-search"]
        }
      }
    }
    
  3. Starta om Cline och säkerställ att servern är aktiv.

Exempel på att säkra API-nycklar:

{
  "mcpServers": {
    "vertexai-search": {
      "env": {
        "GOOGLE_APPLICATION_CREDENTIALS": "/path/to/your/credentials.json"
      },
      "inputs": {}
    }
  }
}

Så här använder du denna MCP i flöden

Använda MCP i FlowHunt

För att integrera MCP-servrar i ditt FlowHunt-arbetsflöde, börja med att lägga till MCP-komponenten i ditt flöde och koppla den till din AI-agent:

FlowHunt MCP flow

Klicka på MCP-komponenten för att öppna konfigurationspanelen. I systemets MCP-konfigurationssektion anger du din MCP-servers information med följande JSON-format:

{
  "vertexai-search": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

När det är konfigurerat kan AI-agenten nu använda denna MCP som ett verktyg med tillgång till alla dess funktioner och kapabiliteter. Kom ihåg att ändra “vertexai-search” till det faktiska namnet på din MCP-server och byt ut URL:en mot din egen MCP-server-URL.


Översikt

SektionTillgänglighetDetaljer/Noteringar
ÖversiktFinns i README.md
Lista över PromptsInga promptmallar funna
Lista över ResurserInga explicita resurser beskrivna
Lista över VerktygInga explicita verktyg listade
Säkra API-nycklarKonfigurationsexempel finns
Samplingstöd (mindre viktigt vid utvärdering)Ej nämnt

Baserat på dokumentationens fullständighet och funktionsöversikt ger denna MCP-server en stabil integration för Vertex AI Search men saknar detaljerad dokumentation om prompts, resurser och verktyg. Installationsinstruktionerna och licensieringen är tydliga, men avancerade MCP-funktioner diskuteras inte. Betyg: 5/10


MCP-betyg

Har LICENSE✅ (Apache-2.0)
Har minst ett verktyg
Antal forkar9
Antal stjärnor18

Vanliga frågor

Prova VertexAI Search MCP-server på FlowHunt

Ge dina AI-agenter superkrafter med privat datasetsök och grundade svar. Integrera VertexAI Search MCP-server på bara några steg.

Lär dig mer

AlibabaCloud OpenSearch MCP-server
AlibabaCloud OpenSearch MCP-server

AlibabaCloud OpenSearch MCP-server

AlibabaCloud OpenSearch MCP-server kopplar AI-agenter och assistenter till Alibaba Clouds OpenSearch och möjliggör avancerad sökning, vektorsökningar och sömlös...

4 min läsning
MCP Servers AlibabaCloud +4
Vertica MCP-server
Vertica MCP-server

Vertica MCP-server

Vertica MCP-server möjliggör sömlös integration mellan AI-assistenter och OpenText Vertica-databaser, med stöd för säkra SQL-operationer, bulkimport av data, sc...

4 min läsning
Databases MCP Servers +4
OpenSearch MCP-serverintegration
OpenSearch MCP-serverintegration

OpenSearch MCP-serverintegration

OpenSearch MCP-servern möjliggör sömlös integration av OpenSearch med FlowHunt och andra AI-agenter, vilket ger programmatisk åtkomst till sök-, analys- och inn...

4 min läsning
AI OpenSearch +5