
Vectara MCP 服务器集成
Vectara MCP Server 是一个开源桥梁,连接 AI 助手与 Vectara 的可信 RAG 平台,实现 FlowHunt 生成式 AI 工作流中的安全高效检索增强生成(RAG)与企业搜索。...
轻松将 Google Vertex AI Search 集成到您的 AI 代理中,通过 VertexAI 搜索 MCP 服务器在私有数据集上实现可靠、可溯源的搜索。
VertexAI 搜索 MCP 服务器旨在将 AI 助手与 Google Vertex AI Search 连接,使其能够检索和搜索存储于 Vertex AI Datastore 的私有数据集。通过结合 Gemini 与 Vertex AI 溯源能力,该服务器提升了搜索结果的质量与准确性,使 AI 答复基于您的专有数据。它支持集成一个或多个 Vertex AI 数据存储,是为 LLM 驱动流程增强组织专属、上下文相关信息的有力工具。开发者可以借此实现文档自动检索、知识库查询,并在开发与生产环境中高效访问企业数据。
仓库中未提及提示词模板。
仓库中未详细列出具体资源。
仓库或 server.py 中未提供明确的工具列表。
git clone git@github.com:ubie-oss/mcp-vertexai-search.git
uv venv
uv sync --all-extras
{
"mcpServers": {
"vertexai-search": {
"command": "uv",
"args": ["run", "mcp-vertexai-search"]
}
}
}
API 密钥安全配置示例:
{
"mcpServers": {
"vertexai-search": {
"env": {
"GOOGLE_APPLICATION_CREDENTIALS": "/path/to/your/credentials.json"
},
"inputs": {}
}
}
}
{
"mcpServers": {
"vertexai-search": {
"command": "uv",
"args": ["run", "mcp-vertexai-search"]
}
}
}
API 密钥安全配置示例:
{
"mcpServers": {
"vertexai-search": {
"env": {
"GOOGLE_APPLICATION_CREDENTIALS": "/path/to/your/credentials.json"
},
"inputs": {}
}
}
}
{
"mcpServers": {
"vertexai-search": {
"command": "uv",
"args": ["run", "mcp-vertexai-search"]
}
}
}
API 密钥安全配置示例:
{
"mcpServers": {
"vertexai-search": {
"env": {
"GOOGLE_APPLICATION_CREDENTIALS": "/path/to/your/credentials.json"
},
"inputs": {}
}
}
}
{
"mcpServers": {
"vertexai-search": {
"command": "uv",
"args": ["run", "mcp-vertexai-search"]
}
}
}
API 密钥安全配置示例:
{
"mcpServers": {
"vertexai-search": {
"env": {
"GOOGLE_APPLICATION_CREDENTIALS": "/path/to/your/credentials.json"
},
"inputs": {}
}
}
}
在 FlowHunt 中使用 MCP
要将 MCP 服务器集成进您的 FlowHunt 工作流,首先添加 MCP 组件并将其与 AI 代理连接:
点击 MCP 组件,打开配置面板。在系统 MCP 配置部分,按以下 JSON 格式输入您的 MCP 服务器信息:
{
"vertexai-search": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
配置完成后,AI 代理即可作为工具访问 MCP 的全部功能。请注意将 “vertexai-search” 替换为实际的 MCP 服务器名称,并将 URL 换成您的服务器地址。
Section | Availability | Details/Notes |
---|---|---|
Overview | ✅ | README.md 中已包含 |
List of Prompts | ⛔ | 未找到提示词模板 |
List of Resources | ⛔ | 未详细列出资源 |
List of Tools | ⛔ | 未列出工具 |
Securing API Keys | ✅ | 提供了配置示例 |
Sampling Support (less important in evaluation) | ⛔ | 未提及 |
从文档完整性和功能暴露角度来看,该 MCP 服务器为 Vertex AI Search 提供了稳健的集成,但在提示词、资源和工具细节文档方面仍有不足。安装与授权说明清晰,但未涉及高级 MCP 特性。评分:5/10
Has a LICENSE | ✅ (Apache-2.0) |
---|---|
Has at least one tool | ⛔ |
Number of Forks | 9 |
Number of Stars | 18 |
VertexAI 搜索 MCP 服务器将 AI 助手与 Google Vertex AI Search 连接起来,使其能够从 Vertex AI Datastore 中的私有数据集进行检索。它将 AI 回答与您组织的数据进行溯源,从而提高准确性和上下文相关性。
使用场景包括自动化企业文档搜索、增强知识库、实现数据驱动开发,以及构建利用专有数据集的自定义 AI 助手。
在您的 MCP 配置中设置 GOOGLE_APPLICATION_CREDENTIALS 环境变量,指向您的 Google Cloud 服务账户凭证 JSON 文件。每种支持的客户端都提供了示例配置。
可以,服务器支持集成一个或多个 Vertex AI Datastore,可根据需求跨多个私有数据集进行查询。
将 MCP 组件添加到您的流程中,使用您的服务器信息进行配置,并将其与 AI 代理连接。此时代理即可访问 VertexAI 搜索 MCP 服务器提供的所有功能。
Vectara MCP Server 是一个开源桥梁,连接 AI 助手与 Vectara 的可信 RAG 平台,实现 FlowHunt 生成式 AI 工作流中的安全高效检索增强生成(RAG)与企业搜索。...
Vertica MCP 服务器实现了 AI 助手与 OpenText Vertica 数据库的无缝集成,支持安全的 SQL 操作、批量数据加载、结构检查及企业级数据工作流的实时分析。...
将 Vectorize MCP 服务器与 FlowHunt 集成,实现高级向量检索、语义搜索和文本提取,助力强大的 AI 驱动工作流。轻松连接 AI 智能体到外部向量数据库,支持实时、语境丰富的交互和大规模数据管理。...