VertexAI 搜索 MCP 服务器

VertexAI 搜索 MCP 服务器

轻松将 Google Vertex AI Search 集成到您的 AI 代理中,通过 VertexAI 搜索 MCP 服务器在私有数据集上实现可靠、可溯源的搜索。

“VertexAI 搜索”MCP 服务器有什么作用?

VertexAI 搜索 MCP 服务器旨在将 AI 助手与 Google Vertex AI Search 连接,使其能够检索和搜索存储于 Vertex AI Datastore 的私有数据集。通过结合 Gemini 与 Vertex AI 溯源能力,该服务器提升了搜索结果的质量与准确性,使 AI 答复基于您的专有数据。它支持集成一个或多个 Vertex AI 数据存储,是为 LLM 驱动流程增强组织专属、上下文相关信息的有力工具。开发者可以借此实现文档自动检索、知识库查询,并在开发与生产环境中高效访问企业数据。

提示词列表

仓库中未提及提示词模板。

资源列表

仓库中未详细列出具体资源。

工具列表

仓库或 server.py 中未提供明确的工具列表。

此 MCP 服务器的应用场景

  • 企业搜索自动化:将 Vertex AI Search 集成到工作流中,自动化私有数据集的文档查询与检索,提升内部信息访问效率。
  • 知识库增强:赋能 AI 助手以组织专属知识为基础解答用户问题,提高回答准确性。
  • 数据驱动决策:开发者可在应用开发过程中,直接检索 Vertex AI Datastore 中的相关数据,为决策提供依据。
  • 定制 AI 助手开发:构建具备领域专属检索和上下文能力的 AI 代理,利用精选的 Vertex AI 数据存储。

如何设置

Windsurf

  1. 确保您的系统已安装 Python 和 Docker。
  2. 克隆仓库:
    git clone git@github.com:ubie-oss/mcp-vertexai-search.git
  3. 创建虚拟环境并安装依赖:
    uv venv  
    uv sync --all-extras
    
  4. 在 Windsurf 配置文件中添加 MCP 服务器配置,示例如下:
    {
      "mcpServers": {
        "vertexai-search": {
          "command": "uv",
          "args": ["run", "mcp-vertexai-search"]
        }
      }
    }
    
  5. 保存并重启 Windsurf,确认 MCP 服务器已运行。

API 密钥安全配置示例:

{
  "mcpServers": {
    "vertexai-search": {
      "env": {
        "GOOGLE_APPLICATION_CREDENTIALS": "/path/to/your/credentials.json"
      },
      "inputs": {}
    }
  }
}

Claude

  1. 确保已配置好 Python 环境及依赖。
  2. 如上所述克隆并设置仓库。
  3. 编辑 Claude 配置以添加 MCP 服务器:
    {
      "mcpServers": {
        "vertexai-search": {
          "command": "uv",
          "args": ["run", "mcp-vertexai-search"]
        }
      }
    }
    
  4. 重启 Claude 并检查服务器状态。

API 密钥安全配置示例:

{
  "mcpServers": {
    "vertexai-search": {
      "env": {
        "GOOGLE_APPLICATION_CREDENTIALS": "/path/to/your/credentials.json"
      },
      "inputs": {}
    }
  }
}

Cursor

  1. 按上述方式安装依赖并设置仓库。
  2. 更新 Cursor 配置文件:
    {
      "mcpServers": {
        "vertexai-search": {
          "command": "uv",
          "args": ["run", "mcp-vertexai-search"]
        }
      }
    }
    
  3. 保存、重启 Cursor 并确认运行正常。

API 密钥安全配置示例:

{
  "mcpServers": {
    "vertexai-search": {
      "env": {
        "GOOGLE_APPLICATION_CREDENTIALS": "/path/to/your/credentials.json"
      },
      "inputs": {}
    }
  }
}

Cline

  1. 按上述仓库设置步骤操作。
  2. 修改 Cline 配置:
    {
      "mcpServers": {
        "vertexai-search": {
          "command": "uv",
          "args": ["run", "mcp-vertexai-search"]
        }
      }
    }
    
  3. 重启 Cline 并确认服务器已激活。

API 密钥安全配置示例:

{
  "mcpServers": {
    "vertexai-search": {
      "env": {
        "GOOGLE_APPLICATION_CREDENTIALS": "/path/to/your/credentials.json"
      },
      "inputs": {}
    }
  }
}

如何在流程中使用此 MCP

在 FlowHunt 中使用 MCP

要将 MCP 服务器集成进您的 FlowHunt 工作流,首先添加 MCP 组件并将其与 AI 代理连接:

FlowHunt MCP flow

点击 MCP 组件,打开配置面板。在系统 MCP 配置部分,按以下 JSON 格式输入您的 MCP 服务器信息:

{
  "vertexai-search": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

配置完成后,AI 代理即可作为工具访问 MCP 的全部功能。请注意将 “vertexai-search” 替换为实际的 MCP 服务器名称,并将 URL 换成您的服务器地址。


概览

SectionAvailabilityDetails/Notes
OverviewREADME.md 中已包含
List of Prompts未找到提示词模板
List of Resources未详细列出资源
List of Tools未列出工具
Securing API Keys提供了配置示例
Sampling Support (less important in evaluation)未提及

从文档完整性和功能暴露角度来看,该 MCP 服务器为 Vertex AI Search 提供了稳健的集成,但在提示词、资源和工具细节文档方面仍有不足。安装与授权说明清晰,但未涉及高级 MCP 特性。评分:5/10


MCP 评分

Has a LICENSE✅ (Apache-2.0)
Has at least one tool
Number of Forks9
Number of Stars18

常见问题

什么是 VertexAI 搜索 MCP 服务器?

VertexAI 搜索 MCP 服务器将 AI 助手与 Google Vertex AI Search 连接起来,使其能够从 Vertex AI Datastore 中的私有数据集进行检索。它将 AI 回答与您组织的数据进行溯源,从而提高准确性和上下文相关性。

典型的使用场景有哪些?

使用场景包括自动化企业文档搜索、增强知识库、实现数据驱动开发,以及构建利用专有数据集的自定义 AI 助手。

如何保障我的 API 凭证安全?

在您的 MCP 配置中设置 GOOGLE_APPLICATION_CREDENTIALS 环境变量,指向您的 Google Cloud 服务账户凭证 JSON 文件。每种支持的客户端都提供了示例配置。

可以使用多个 Vertex AI Datastore 吗?

可以,服务器支持集成一个或多个 Vertex AI Datastore,可根据需求跨多个私有数据集进行查询。

在哪里可以看到 MCP 服务器在 FlowHunt 中的实际应用?

将 MCP 组件添加到您的流程中,使用您的服务器信息进行配置,并将其与 AI 代理连接。此时代理即可访问 VertexAI 搜索 MCP 服务器提供的所有功能。

在 FlowHunt 试用 VertexAI 搜索 MCP 服务器

为您的 AI 代理赋能私有数据集搜索和溯源回答。只需几步即可集成 VertexAI 搜索 MCP 服务器。

了解更多

Vectara MCP 服务器集成
Vectara MCP 服务器集成

Vectara MCP 服务器集成

Vectara MCP Server 是一个开源桥梁,连接 AI 助手与 Vectara 的可信 RAG 平台,实现 FlowHunt 生成式 AI 工作流中的安全高效检索增强生成(RAG)与企业搜索。...

2 分钟阅读
AI RAG +5
Vertica MCP 服务器
Vertica MCP 服务器

Vertica MCP 服务器

Vertica MCP 服务器实现了 AI 助手与 OpenText Vertica 数据库的无缝集成,支持安全的 SQL 操作、批量数据加载、结构检查及企业级数据工作流的实时分析。...

2 分钟阅读
Databases MCP Servers +4
Vectorize MCP 服务器集成
Vectorize MCP 服务器集成

Vectorize MCP 服务器集成

将 Vectorize MCP 服务器与 FlowHunt 集成,实现高级向量检索、语义搜索和文本提取,助力强大的 AI 驱动工作流。轻松连接 AI 智能体到外部向量数据库,支持实时、语境丰富的交互和大规模数据管理。...

3 分钟阅读
AI MCP Server +6