VertexAI 搜索 MCP 服务器

AI Enterprise Search MCP Server VertexAI

联系我们在FlowHunt托管您的MCP服务器

FlowHunt在您的内部系统和AI工具之间提供额外的安全层,让您能够精细控制从MCP服务器可访问哪些工具。托管在我们基础设施中的MCP服务器可以与FlowHunt的聊天机器人以及ChatGPT、Claude和各种AI编辑器等热门AI平台无缝集成。

“VertexAI 搜索”MCP 服务器有什么作用?

VertexAI 搜索 MCP 服务器旨在将 AI 助手与 Google Vertex AI Search 连接,使其能够检索和搜索存储于 Vertex AI Datastore 的私有数据集。通过结合 Gemini 与 Vertex AI 溯源能力,该服务器提升了搜索结果的质量与准确性,使 AI 答复基于您的专有数据。它支持集成一个或多个 Vertex AI 数据存储,是为 LLM 驱动流程增强组织专属、上下文相关信息的有力工具。开发者可以借此实现文档自动检索、知识库查询,并在开发与生产环境中高效访问企业数据。

提示词列表

仓库中未提及提示词模板。

Logo

准备好发展您的业务了吗?

今天开始免费试用,几天内即可看到结果。

资源列表

仓库中未详细列出具体资源。

工具列表

仓库或 server.py 中未提供明确的工具列表。

此 MCP 服务器的应用场景

  • 企业搜索自动化:将 Vertex AI Search 集成到工作流中,自动化私有数据集的文档查询与检索,提升内部信息访问效率。
  • 知识库增强:赋能 AI 助手以组织专属知识为基础解答用户问题,提高回答准确性。
  • 数据驱动决策:开发者可在应用开发过程中,直接检索 Vertex AI Datastore 中的相关数据,为决策提供依据。
  • 定制 AI 助手开发:构建具备领域专属检索和上下文能力的 AI 代理,利用精选的 Vertex AI 数据存储。

如何设置

Windsurf

  1. 确保您的系统已安装 Python 和 Docker。
  2. 克隆仓库:
    git clone git@github.com:ubie-oss/mcp-vertexai-search.git
  3. 创建虚拟环境并安装依赖:
    uv venv  
    uv sync --all-extras
    
  4. 在 Windsurf 配置文件中添加 MCP 服务器配置,示例如下:
    {
      "mcpServers": {
        "vertexai-search": {
          "command": "uv",
          "args": ["run", "mcp-vertexai-search"]
        }
      }
    }
    
  5. 保存并重启 Windsurf,确认 MCP 服务器已运行。

API 密钥安全配置示例:

{
  "mcpServers": {
    "vertexai-search": {
      "env": {
        "GOOGLE_APPLICATION_CREDENTIALS": "/path/to/your/credentials.json"
      },
      "inputs": {}
    }
  }
}

Claude

  1. 确保已配置好 Python 环境及依赖。
  2. 如上所述克隆并设置仓库。
  3. 编辑 Claude 配置以添加 MCP 服务器:
    {
      "mcpServers": {
        "vertexai-search": {
          "command": "uv",
          "args": ["run", "mcp-vertexai-search"]
        }
      }
    }
    
  4. 重启 Claude 并检查服务器状态。

API 密钥安全配置示例:

{
  "mcpServers": {
    "vertexai-search": {
      "env": {
        "GOOGLE_APPLICATION_CREDENTIALS": "/path/to/your/credentials.json"
      },
      "inputs": {}
    }
  }
}

Cursor

  1. 按上述方式安装依赖并设置仓库。
  2. 更新 Cursor 配置文件:
    {
      "mcpServers": {
        "vertexai-search": {
          "command": "uv",
          "args": ["run", "mcp-vertexai-search"]
        }
      }
    }
    
  3. 保存、重启 Cursor 并确认运行正常。

API 密钥安全配置示例:

{
  "mcpServers": {
    "vertexai-search": {
      "env": {
        "GOOGLE_APPLICATION_CREDENTIALS": "/path/to/your/credentials.json"
      },
      "inputs": {}
    }
  }
}

Cline

  1. 按上述仓库设置步骤操作。
  2. 修改 Cline 配置:
    {
      "mcpServers": {
        "vertexai-search": {
          "command": "uv",
          "args": ["run", "mcp-vertexai-search"]
        }
      }
    }
    
  3. 重启 Cline 并确认服务器已激活。

API 密钥安全配置示例:

{
  "mcpServers": {
    "vertexai-search": {
      "env": {
        "GOOGLE_APPLICATION_CREDENTIALS": "/path/to/your/credentials.json"
      },
      "inputs": {}
    }
  }
}

如何在流程中使用此 MCP

在 FlowHunt 中使用 MCP

要将 MCP 服务器集成进您的 FlowHunt 工作流,首先添加 MCP 组件并将其与 AI 代理连接:

FlowHunt MCP flow

点击 MCP 组件,打开配置面板。在系统 MCP 配置部分,按以下 JSON 格式输入您的 MCP 服务器信息:

{
  "vertexai-search": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

配置完成后,AI 代理即可作为工具访问 MCP 的全部功能。请注意将 “vertexai-search” 替换为实际的 MCP 服务器名称,并将 URL 换成您的服务器地址。


概览

SectionAvailabilityDetails/Notes
OverviewREADME.md 中已包含
List of Prompts未找到提示词模板
List of Resources未详细列出资源
List of Tools未列出工具
Securing API Keys提供了配置示例
Sampling Support (less important in evaluation)未提及

从文档完整性和功能暴露角度来看,该 MCP 服务器为 Vertex AI Search 提供了稳健的集成,但在提示词、资源和工具细节文档方面仍有不足。安装与授权说明清晰,但未涉及高级 MCP 特性。评分:5/10


MCP 评分

Has a LICENSE✅ (Apache-2.0)
Has at least one tool
Number of Forks9
Number of Stars18

常见问题

在 FlowHunt 试用 VertexAI 搜索 MCP 服务器

为您的 AI 代理赋能私有数据集搜索和溯源回答。只需几步即可集成 VertexAI 搜索 MCP 服务器

了解更多

Vertex AI 搜索
Vertex AI 搜索

Vertex AI 搜索

将 FlowHunt 与 Vertex AI Search 集成,实现由 Gemini 驱动的安全、具备上下文感知的文档检索。在多个 Vertex AI 数据存储中进行搜索,简化知识发现流程,并通过灵活、可扩展的部署选项提升生产力。...

1 分钟阅读
AI Vertex AI +4
Vectara MCP 服务器集成
Vectara MCP 服务器集成

Vectara MCP 服务器集成

Vectara MCP Server 是一个开源桥梁,连接 AI 助手与 Vectara 的可信 RAG 平台,实现 FlowHunt 生成式 AI 工作流中的安全高效检索增强生成(RAG)与企业搜索。...

2 分钟阅读
AI RAG +5
Vectorize MCP 服务器集成
Vectorize MCP 服务器集成

Vectorize MCP 服务器集成

将 Vectorize MCP 服务器与 FlowHunt 集成,实现高级向量检索、语义搜索和文本提取,助力强大的 AI 驱动工作流。轻松连接 AI 智能体到外部向量数据库,支持实时、语境丰富的交互和大规模数据管理。...

3 分钟阅读
AI MCP Server +6