
Vertex AI 搜索
将 FlowHunt 与 Vertex AI Search 集成,实现由 Gemini 驱动的安全、具备上下文感知的文档检索。在多个 Vertex AI 数据存储中进行搜索,简化知识发现流程,并通过灵活、可扩展的部署选项提升生产力。...
FlowHunt在您的内部系统和AI工具之间提供额外的安全层,让您能够精细控制从MCP服务器可访问哪些工具。托管在我们基础设施中的MCP服务器可以与FlowHunt的聊天机器人以及ChatGPT、Claude和各种AI编辑器等热门AI平台无缝集成。
VertexAI 搜索 MCP 服务器旨在将 AI 助手与 Google Vertex AI Search 连接,使其能够检索和搜索存储于 Vertex AI Datastore 的私有数据集。通过结合 Gemini 与 Vertex AI 溯源能力,该服务器提升了搜索结果的质量与准确性,使 AI 答复基于您的专有数据。它支持集成一个或多个 Vertex AI 数据存储,是为 LLM 驱动流程增强组织专属、上下文相关信息的有力工具。开发者可以借此实现文档自动检索、知识库查询,并在开发与生产环境中高效访问企业数据。
仓库中未提及提示词模板。
仓库中未详细列出具体资源。
仓库或 server.py 中未提供明确的工具列表。
git clone git@github.com:ubie-oss/mcp-vertexai-search.gituv venv
uv sync --all-extras
{
"mcpServers": {
"vertexai-search": {
"command": "uv",
"args": ["run", "mcp-vertexai-search"]
}
}
}
API 密钥安全配置示例:
{
"mcpServers": {
"vertexai-search": {
"env": {
"GOOGLE_APPLICATION_CREDENTIALS": "/path/to/your/credentials.json"
},
"inputs": {}
}
}
}
{
"mcpServers": {
"vertexai-search": {
"command": "uv",
"args": ["run", "mcp-vertexai-search"]
}
}
}
API 密钥安全配置示例:
{
"mcpServers": {
"vertexai-search": {
"env": {
"GOOGLE_APPLICATION_CREDENTIALS": "/path/to/your/credentials.json"
},
"inputs": {}
}
}
}
{
"mcpServers": {
"vertexai-search": {
"command": "uv",
"args": ["run", "mcp-vertexai-search"]
}
}
}
API 密钥安全配置示例:
{
"mcpServers": {
"vertexai-search": {
"env": {
"GOOGLE_APPLICATION_CREDENTIALS": "/path/to/your/credentials.json"
},
"inputs": {}
}
}
}
{
"mcpServers": {
"vertexai-search": {
"command": "uv",
"args": ["run", "mcp-vertexai-search"]
}
}
}
API 密钥安全配置示例:
{
"mcpServers": {
"vertexai-search": {
"env": {
"GOOGLE_APPLICATION_CREDENTIALS": "/path/to/your/credentials.json"
},
"inputs": {}
}
}
}
在 FlowHunt 中使用 MCP
要将 MCP 服务器集成进您的 FlowHunt 工作流,首先添加 MCP 组件并将其与 AI 代理连接:

点击 MCP 组件,打开配置面板。在系统 MCP 配置部分,按以下 JSON 格式输入您的 MCP 服务器信息:
{
"vertexai-search": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
配置完成后,AI 代理即可作为工具访问 MCP 的全部功能。请注意将 “vertexai-search” 替换为实际的 MCP 服务器名称,并将 URL 换成您的服务器地址。
| Section | Availability | Details/Notes |
|---|---|---|
| Overview | ✅ | README.md 中已包含 |
| List of Prompts | ⛔ | 未找到提示词模板 |
| List of Resources | ⛔ | 未详细列出资源 |
| List of Tools | ⛔ | 未列出工具 |
| Securing API Keys | ✅ | 提供了配置示例 |
| Sampling Support (less important in evaluation) | ⛔ | 未提及 |
从文档完整性和功能暴露角度来看,该 MCP 服务器为 Vertex AI Search 提供了稳健的集成,但在提示词、资源和工具细节文档方面仍有不足。安装与授权说明清晰,但未涉及高级 MCP 特性。评分:5/10
| Has a LICENSE | ✅ (Apache-2.0) |
|---|---|
| Has at least one tool | ⛔ |
| Number of Forks | 9 |
| Number of Stars | 18 |

将 FlowHunt 与 Vertex AI Search 集成,实现由 Gemini 驱动的安全、具备上下文感知的文档检索。在多个 Vertex AI 数据存储中进行搜索,简化知识发现流程,并通过灵活、可扩展的部署选项提升生产力。...

Vectara MCP Server 是一个开源桥梁,连接 AI 助手与 Vectara 的可信 RAG 平台,实现 FlowHunt 生成式 AI 工作流中的安全高效检索增强生成(RAG)与企业搜索。...

将 Vectorize MCP 服务器与 FlowHunt 集成,实现高级向量检索、语义搜索和文本提取,助力强大的 AI 驱动工作流。轻松连接 AI 智能体到外部向量数据库,支持实时、语境丰富的交互和大规模数据管理。...
Cookie 同意
我们使用 cookie 来增强您的浏览体验并分析我们的流量。 See our privacy policy.