
Vertica MCP-server
Vertica MCP-server möjliggör sömlös integration mellan AI-assistenter och OpenText Vertica-databaser, med stöd för säkra SQL-operationer, bulkimport av data, sc...
Integrera enkelt Google Vertex AI Search med dina AI-agenter för att möjliggöra tillförlitlig, grundad sökning över privata dataset med VertexAI Search MCP-server.
VertexAI Search MCP-servern är utformad för att koppla AI-assistenter till Google Vertex AI Search, vilket gör det möjligt att söka och hämta information från privata dataset som lagras i Vertex AI Datastore. Genom att använda Gemini med Vertex AI-grounding förbättrar denna server kvaliteten och noggrannheten i sökresultat genom att grunda AI-svar i din egen data. Den stödjer integration med en eller flera Vertex AI-databaser, vilket gör den till ett kraftfullt verktyg för att förstärka LLM-drivna arbetsflöden med kontextuellt relevant, organisationsspecifik information. Denna möjlighet ger utvecklare kraften att automatisera dokumentsökning, frågor till kunskapsbaser och effektivisera åtkomst till företagsdata i både utvecklings- och produktionsmiljöer.
Inga promptmallar nämns i repot.
Inga specifika resurser beskrivs i repot.
Ingen explicit lista med verktyg finns i repot eller i server.py.
git clone git@github.com:ubie-oss/mcp-vertexai-search.git
uv venv
uv sync --all-extras
{
"mcpServers": {
"vertexai-search": {
"command": "uv",
"args": ["run", "mcp-vertexai-search"]
}
}
}
Exempel på att säkra API-nycklar:
{
"mcpServers": {
"vertexai-search": {
"env": {
"GOOGLE_APPLICATION_CREDENTIALS": "/path/to/your/credentials.json"
},
"inputs": {}
}
}
}
{
"mcpServers": {
"vertexai-search": {
"command": "uv",
"args": ["run", "mcp-vertexai-search"]
}
}
}
Exempel på att säkra API-nycklar:
{
"mcpServers": {
"vertexai-search": {
"env": {
"GOOGLE_APPLICATION_CREDENTIALS": "/path/to/your/credentials.json"
},
"inputs": {}
}
}
}
{
"mcpServers": {
"vertexai-search": {
"command": "uv",
"args": ["run", "mcp-vertexai-search"]
}
}
}
Exempel på att säkra API-nycklar:
{
"mcpServers": {
"vertexai-search": {
"env": {
"GOOGLE_APPLICATION_CREDENTIALS": "/path/to/your/credentials.json"
},
"inputs": {}
}
}
}
{
"mcpServers": {
"vertexai-search": {
"command": "uv",
"args": ["run", "mcp-vertexai-search"]
}
}
}
Exempel på att säkra API-nycklar:
{
"mcpServers": {
"vertexai-search": {
"env": {
"GOOGLE_APPLICATION_CREDENTIALS": "/path/to/your/credentials.json"
},
"inputs": {}
}
}
}
Använda MCP i FlowHunt
För att integrera MCP-servrar i ditt FlowHunt-arbetsflöde, börja med att lägga till MCP-komponenten i ditt flöde och koppla den till din AI-agent:
Klicka på MCP-komponenten för att öppna konfigurationspanelen. I systemets MCP-konfigurationssektion anger du din MCP-servers information med följande JSON-format:
{
"vertexai-search": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
När det är konfigurerat kan AI-agenten nu använda denna MCP som ett verktyg med tillgång till alla dess funktioner och kapabiliteter. Kom ihåg att ändra “vertexai-search” till det faktiska namnet på din MCP-server och byt ut URL:en mot din egen MCP-server-URL.
Sektion | Tillgänglighet | Detaljer/Noteringar |
---|---|---|
Översikt | ✅ | Finns i README.md |
Lista över Prompts | ⛔ | Inga promptmallar funna |
Lista över Resurser | ⛔ | Inga explicita resurser beskrivna |
Lista över Verktyg | ⛔ | Inga explicita verktyg listade |
Säkra API-nycklar | ✅ | Konfigurationsexempel finns |
Samplingstöd (mindre viktigt vid utvärdering) | ⛔ | Ej nämnt |
Baserat på dokumentationens fullständighet och funktionsöversikt ger denna MCP-server en stabil integration för Vertex AI Search men saknar detaljerad dokumentation om prompts, resurser och verktyg. Installationsinstruktionerna och licensieringen är tydliga, men avancerade MCP-funktioner diskuteras inte. Betyg: 5/10
Har LICENSE | ✅ (Apache-2.0) |
---|---|
Har minst ett verktyg | ⛔ |
Antal forkar | 9 |
Antal stjärnor | 18 |
VertexAI Search MCP-server kopplar AI-assistenter till Google Vertex AI Search, så att de kan söka och hämta information från privata dataset i Vertex AI Datastore. Den grundar AI-svar i din organisations data för ökad noggrannhet och kontext.
Användningsområden inkluderar automatisering av dokumentsökning för företag, förstärkning av kunskapsbaser, möjliggörande av datadriven utveckling och byggande av egna AI-assistenter som utnyttjar egen data.
Ställ in miljövariabeln GOOGLE_APPLICATION_CREDENTIALS i din MCP-konfiguration och peka på din Google Cloud service account credentials JSON-fil. Exempelskonfigurationer finns för varje stödd klient.
Ja, servern stödjer integration med en eller flera Vertex AI Datastores, vilket låter dig söka över olika privata dataset efter behov.
Lägg till MCP-komponenten i ditt flöde, konfigurera med din servers uppgifter och koppla den till din AI-agent. Agenten kan sedan använda alla funktioner från VertexAI Search MCP-servern.
Ge dina AI-agenter superkrafter med privat datasetsök och grundade svar. Integrera VertexAI Search MCP-server på bara några steg.
Vertica MCP-server möjliggör sömlös integration mellan AI-assistenter och OpenText Vertica-databaser, med stöd för säkra SQL-operationer, bulkimport av data, sc...
AlibabaCloud OpenSearch MCP-server kopplar AI-agenter och assistenter till Alibaba Clouds OpenSearch och möjliggör avancerad sökning, vektorsökningar och sömlös...
Baidu AI Search MCP-servern ansluter AI-assistenter till Baidus webbsökning och möjliggör realtids-, regionsspecifik informationshämtning för förbättrade konver...