Servidor MCP de VertexAI Search

Integra fácilmente Google Vertex AI Search con tus agentes de IA para habilitar búsquedas confiables y fundamentadas en conjuntos de datos privados con el Servidor MCP de VertexAI Search.

Servidor MCP de VertexAI Search

El Servidor MCP de VertexAI Search está diseñado para conectar asistentes de IA con Google Vertex AI Search, permitiéndoles buscar y recuperar información de conjuntos de datos privados almacenados en Vertex AI Datastore. Al aprovechar Gemini con fundamentación de Vertex AI, este servidor mejora la calidad y precisión de los resultados de búsqueda al fundamentar las respuestas de IA en tus datos propietarios. Admite la integración con uno o varios almacenes de datos de Vertex AI, lo que lo convierte en una herramienta poderosa para aumentar los flujos de trabajo impulsados por LLM con información relevante y específica de la organización. Esta capacidad permite a los desarrolladores automatizar la búsqueda de documentos, consultas a la base de conocimiento y agilizar el acceso a datos empresariales en entornos de desarrollo y producción.

Lista de Prompts

No se mencionan plantillas de prompt en el repositorio.

Lista de Recursos

No se detallan recursos específicos en el repositorio.

Lista de Herramientas

No se proporciona una lista explícita de herramientas en el repositorio ni en server.py.

Casos de Uso de este Servidor MCP

  • Automatización de la Búsqueda Empresarial: Integra Vertex AI Search en los flujos de trabajo para automatizar la consulta y recuperación de documentos desde conjuntos de datos privados, agilizando el acceso interno a la información.
  • Aumento de la Base de Conocimiento: Mejora los asistentes de IA con la capacidad de responder consultas fundamentadas en el conocimiento específico de la organización, mejorando la precisión de las respuestas.
  • Toma de Decisiones Basada en Datos: Permite a los desarrolladores mostrar datos relevantes de Vertex AI Datastores durante el desarrollo de aplicaciones, apoyando decisiones basadas en evidencia.
  • Desarrollo de Asistentes de IA Personalizados: Construye agentes de IA específicos de dominio capaces de buscar y contextualizar respuestas usando almacenes de datos curados de Vertex AI.

Cómo configurarlo

Windsurf

  1. Asegúrate de tener Python y Docker instalados en tu sistema.
  2. Clona el repositorio:
    git clone git@github.com:ubie-oss/mcp-vertexai-search.git
  3. Crea un entorno virtual e instala las dependencias:
    uv venv  
    uv sync --all-extras
    
  4. Agrega la configuración del servidor MCP en el archivo de configuración de Windsurf así:
    {
      "mcpServers": {
        "vertexai-search": {
          "command": "uv",
          "args": ["run", "mcp-vertexai-search"]
        }
      }
    }
    
  5. Guarda y reinicia Windsurf, luego verifica que el servidor MCP esté en funcionamiento.

Ejemplo para asegurar las claves API:

{
  "mcpServers": {
    "vertexai-search": {
      "env": {
        "GOOGLE_APPLICATION_CREDENTIALS": "/ruta/a/tus/credenciales.json"
      },
      "inputs": {}
    }
  }
}

Claude

  1. Asegúrate de tener el entorno de Python adecuado y las dependencias instaladas.
  2. Clona y configura el repositorio como arriba.
  3. Edita la configuración de Claude para agregar el servidor MCP:
    {
      "mcpServers": {
        "vertexai-search": {
          "command": "uv",
          "args": ["run", "mcp-vertexai-search"]
        }
      }
    }
    
  4. Reinicia Claude y verifica el estado del servidor.

Ejemplo para asegurar las claves API:

{
  "mcpServers": {
    "vertexai-search": {
      "env": {
        "GOOGLE_APPLICATION_CREDENTIALS": "/ruta/a/tus/credenciales.json"
      },
      "inputs": {}
    }
  }
}

Cursor

  1. Instala los prerrequisitos y configura el repositorio como se indicó anteriormente.
  2. Actualiza el archivo de configuración de Cursor:
    {
      "mcpServers": {
        "vertexai-search": {
          "command": "uv",
          "args": ["run", "mcp-vertexai-search"]
        }
      }
    }
    
  3. Guarda, reinicia Cursor y verifica el funcionamiento.

Ejemplo para asegurar las claves API:

{
  "mcpServers": {
    "vertexai-search": {
      "env": {
        "GOOGLE_APPLICATION_CREDENTIALS": "/ruta/a/tus/credenciales.json"
      },
      "inputs": {}
    }
  }
}

Cline

  1. Sigue los pasos para la configuración del repositorio como arriba.
  2. Modifica la configuración de Cline:
    {
      "mcpServers": {
        "vertexai-search": {
          "command": "uv",
          "args": ["run", "mcp-vertexai-search"]
        }
      }
    }
    
  3. Reinicia Cline y confirma que el servidor esté activo.

Ejemplo para asegurar las claves API:

{
  "mcpServers": {
    "vertexai-search": {
      "env": {
        "GOOGLE_APPLICATION_CREDENTIALS": "/ruta/a/tus/credenciales.json"
      },
      "inputs": {}
    }
  }
}

Cómo usar este MCP dentro de los flujos

Uso de MCP en FlowHunt

Para integrar servidores MCP en tu flujo de trabajo de FlowHunt, comienza agregando el componente MCP a tu flujo y conectándolo a tu agente de IA:

FlowHunt MCP flow

Haz clic en el componente MCP para abrir el panel de configuración. En la sección de configuración del sistema MCP, inserta los detalles de tu servidor MCP usando este formato JSON:

{
  "vertexai-search": {
    "transport": "streamable_http",
    "url": "https://tuservidormcp.ejemplo/rutamcp/url"
  }
}

Una vez configurado, el agente de IA podrá usar este MCP como herramienta con acceso a todas sus funciones y capacidades. Recuerda cambiar “vertexai-search” por el nombre real de tu servidor MCP y sustituir la URL por la de tu propio servidor MCP.


Descripción General

SecciónDisponibilidadDetalles/Notas
Descripción GeneralPresente en README.md
Lista de PromptsNo se encontraron plantillas de prompt
Lista de RecursosNo se detallan recursos explícitos
Lista de HerramientasNo se listan herramientas explícitas
Asegurando las claves APISe proporcionan ejemplos de configuración
Soporte de Sampling (menos importante en evaluación)No mencionado

Según la completitud de la documentación y exposición de características, este servidor MCP brinda una integración sólida para Vertex AI Search pero carece de documentación detallada sobre prompts, recursos y herramientas. Las instrucciones de instalación y licencia son claras, pero no se discuten funciones avanzadas de MCP. Calificación: 5/10


Puntuación MCP

Tiene LICENSE✅ (Apache-2.0)
Tiene al menos una herramienta
Número de Forks9
Número de Stars18

Preguntas frecuentes

¿Qué es el Servidor MCP de VertexAI Search?

El Servidor MCP de VertexAI Search conecta asistentes de IA con Google Vertex AI Search, permitiéndoles buscar y recuperar información de conjuntos de datos privados en Vertex AI Datastore. Fundamenta las respuestas de IA en los datos de tu organización para mejorar la precisión y el contexto.

¿Cuáles son los casos de uso típicos?

Los casos de uso incluyen automatización de búsqueda de documentos empresariales, aumento de bases de conocimiento, habilitación de desarrollo impulsado por datos y la construcción de asistentes de IA personalizados que aprovechan conjuntos de datos propietarios.

¿Cómo aseguro mis credenciales API?

Configura la variable de entorno GOOGLE_APPLICATION_CREDENTIALS en tu configuración MCP, apuntando al archivo JSON de credenciales de la cuenta de servicio de Google Cloud. Se proporcionan ejemplos de configuración para cada cliente compatible.

¿Puedo usar múltiples Vertex AI Datastores?

Sí, el servidor admite integración con uno o varios Vertex AI Datastores, permitiéndote consultar diferentes conjuntos de datos privados según sea necesario.

¿Dónde puedo ver el servidor MCP en acción dentro de FlowHunt?

Agrega el componente MCP a tu flujo, configúralo con los detalles de tu servidor y conéctalo a tu agente de IA. El agente podrá entonces acceder a todas las funciones proporcionadas por el Servidor MCP de VertexAI Search.

Prueba el Servidor MCP de VertexAI Search en FlowHunt

Potencia tus agentes de IA con búsqueda en conjuntos de datos privados y respuestas fundamentadas. Integra el Servidor MCP de VertexAI Search en solo unos pasos.

Saber más