Servidor MCP Multi-Model Advisor
El Servidor MCP Multi-Model Advisor de FlowHunt permite que tus agentes de IA consulten múltiples modelos de Ollama a la vez, combinando sus respuestas para lograr contestaciones más completas y una toma de decisiones colaborativa avanzada.

¿Qué hace el Servidor MCP “Multi-Model Advisor”?
El Servidor MCP Multi-Model Advisor es un servidor Model Context Protocol (MCP) diseñado para conectar asistentes de IA con múltiples modelos locales de Ollama, permitiendo consultarlos de manera simultánea y combinar sus respuestas. Este enfoque, descrito como un “consejo de asesores”, permite que sistemas de IA como Claude sinteticen puntos de vista diversos de diferentes modelos, resultando en respuestas más completas y matizadas a las consultas de los usuarios. El servidor permite asignar diferentes roles o personalidades a cada modelo, personalizar los prompts del sistema y se integra perfectamente con entornos como Claude para escritorio. Mejora los flujos de trabajo de desarrollo facilitando tareas como la agregación de opiniones de modelos, apoyando la toma de decisiones avanzada y proporcionando información contextual más rica desde múltiples fuentes de IA.
Lista de Prompts
- ⛔ No se documentan plantillas de prompts explícitas en el repositorio ni en el README.
Lista de Recursos
- ⛔ No se listan recursos MCP específicos en el repositorio ni en la documentación.
Lista de Herramientas
- ⛔ El repositorio no proporciona una lista directa de herramientas en un archivo
server.py
o similar, ni se documentan interfaces de herramientas explícitamente en el README o la estructura de archivos visible.
Casos de Uso de este Servidor MCP
- Opiniones Agregadas de Modelos: Los desarrolladores pueden utilizar el servidor para obtener múltiples perspectivas de diferentes modelos Ollama sobre una sola pregunta, llevando a decisiones más equilibradas e informadas.
- Consultas Basadas en Roles: Asignar diferentes roles o personalidades a cada modelo permite simular varios puntos de vista expertos para análisis de escenarios o sesiones de lluvia de ideas.
- Visión General del Sistema de Modelos: Al visualizar todos los modelos Ollama disponibles en el sistema, los usuarios pueden seleccionar la mejor combinación para su caso de uso específico.
- Toma de Decisiones Colaborativa de IA: El enfoque de “consejo de asesores” ayuda a sintetizar salidas diversas de modelos, lo cual es valioso en la resolución de problemas complejos o cuando se requiere consenso.
- Integración en Flujos de Trabajo: La integración fluida con Claude para escritorio y otros clientes compatibles con MCP permite una mayor productividad del desarrollador y fácil acceso a insights multi-modelo.
Cómo configurarlo
Windsurf
- Asegúrate de tener instalado Node.js 16.x o superior.
- Instala y ejecuta Ollama, y asegúrate de que los modelos requeridos estén disponibles.
- Edita tu archivo de configuración de Windsurf para agregar el Servidor MCP Multi-Model Advisor.
- Añade el siguiente bloque JSON en tu sección
mcpServers
:{ "multi-ai-advisor-mcp": { "command": "npx", "args": ["@YuChenSSR/multi-ai-advisor-mcp@latest"], "env": { "OLLAMA_HOST": "http://localhost:11434" } } }
- Guarda la configuración y reinicia Windsurf.
- Verifica que el servidor esté en funcionamiento y accesible.
Claude
- Instala Node.js 16.x o superior.
- Asegúrate de que Ollama esté en ejecución y que los modelos requeridos estén descargados.
- Utiliza Smithery para una instalación en un solo paso:
npx -y @smithery/cli install @YuChenSSR/multi-ai-advisor-mcp --client claude
- Alternativamente, agrega este bloque a tu configuración MCP de Claude:
{ "multi-ai-advisor-mcp": { "command": "npx", "args": ["@YuChenSSR/multi-ai-advisor-mcp@latest"], "env": { "OLLAMA_HOST": "http://localhost:11434" } } }
- Guarda y reinicia Claude, luego verifica la integración.
Cursor
- Instala Node.js y Ollama.
- Edita la configuración del servidor MCP de Cursor para incluir:
{ "multi-ai-advisor-mcp": { "command": "npx", "args": ["@YuChenSSR/multi-ai-advisor-mcp@latest"], "env": { "OLLAMA_HOST": "http://localhost:11434" } } }
- Guarda la configuración, reinicia Cursor y verifica la disponibilidad del MCP.
Cline
- Asegúrate de tener los requisitos previos: Node.js, Ollama, modelos requeridos.
- Ubica y edita el archivo de configuración MCP de Cline.
- Agrega:
{ "multi-ai-advisor-mcp": { "command": "npx", "args": ["@YuChenSSR/multi-ai-advisor-mcp@latest"], "env": { "OLLAMA_HOST": "http://localhost:11434" } } }
- Guarda, reinicia Cline y confirma que el MCP esté funcionando.
Protegiendo Claves API
Para proteger claves API o variables de entorno sensibles, utiliza el campo env
en tu configuración:
{
"multi-ai-advisor-mcp": {
"command": "npx",
"args": ["@YuChenSSR/multi-ai-advisor-mcp@latest"],
"env": {
"OLLAMA_HOST": "http://localhost:11434",
"MY_SECRET_API_KEY": "${MY_SECRET_API_KEY}"
}
}
}
Define las variables de entorno en tu sistema operativo o pipeline CI/CD para evitar poner secretos en el código fuente.
Cómo usar este MCP dentro de los flujos
Uso de MCP en FlowHunt
Para integrar servidores MCP en tu flujo de trabajo con FlowHunt, comienza agregando el componente MCP a tu flujo y conectándolo a tu agente de IA:

Haz clic en el componente MCP para abrir el panel de configuración. En la sección de configuración MCP del sistema, inserta los detalles de tu servidor MCP usando este formato JSON:
{
"multi-ai-advisor-mcp": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
Una vez configurado, el agente de IA podrá usar este MCP como herramienta, con acceso a todas sus funciones y capacidades. Recuerda cambiar “multi-ai-advisor-mcp” por el nombre real de tu servidor MCP y reemplazar la URL por la de tu propio servidor MCP.
Resumen
Sección | Disponibilidad | Detalles/Notas |
---|---|---|
Resumen | ✅ | README.md, página principal |
Lista de Prompts | ⛔ | No se encontraron plantillas de prompts |
Lista de Recursos | ⛔ | No se listan recursos explícitamente |
Lista de Herramientas | ⛔ | No se encontró lista de herramientas |
Protección de Claves API | ✅ | Ejemplos en .env y configuración JSON |
Soporte de Sampling (menos relevante) | ⛔ | No mencionado |
Nuestra opinión
Multi-Model Advisor MCP está bien documentado para su configuración y ofrece un enfoque único de “consejo de asesores”, pero carece de transparencia sobre prompts, recursos y herramientas. Su valor es alto para flujos de trabajo de decisión multi-modelo, aunque más detalle técnico lo mejoraría. Calificaría este MCP con un 6/10 basándome en las dos tablas, ya que cubre lo esencial y ofrece un caso de uso interesante, pero carece de profundidad en documentación técnica.
Puntuación MCP
¿Tiene LICENCIA? | ✅ (MIT) |
---|---|
¿Tiene al menos una herramienta? | ⛔ |
Número de Forks | 15 |
Número de Stars | 49 |
Preguntas frecuentes
- ¿Qué es el Servidor MCP Multi-Model Advisor?
Es un servidor MCP que conecta asistentes de IA con múltiples modelos de Ollama de manera simultánea, permitiendo combinar respuestas de varios modelos ('consejo de asesores') para obtener respuestas más completas y matizadas.
- ¿Cuáles son los principales casos de uso?
Los casos de uso incluyen agregar opiniones de modelos para decisiones equilibradas, consultas basadas en roles para análisis de escenarios, toma de decisiones colaborativa de IA y flujos de trabajo de desarrollo mejorados con ideas multi-modelo.
- ¿Cómo puedo asegurar variables de entorno sensibles?
Debes utilizar el campo 'env' en tu configuración MCP para las credenciales, y definir las variables en tu sistema operativo o entorno CI/CD, evitando ponerlas directamente en el código o archivos de configuración.
- ¿Puedo asignar diferentes roles o personalidades a cada modelo?
Sí, puedes asignar distintos prompts de sistema o roles a cada modelo Ollama, habilitando simulaciones de escenarios con múltiples perspectivas de expertos.
- ¿Cómo puedo integrar el servidor MCP en FlowHunt?
Agrega el componente MCP a tu flujo y usa el panel de configuración MCP del sistema para insertar los detalles de tu servidor. Esto permite que tus agentes de IA accedan a todas las funciones del servidor.
Prueba el Servidor MCP Multi-Model Advisor
Desata el poder de un consejo de asesores de IA. Agrega perspectivas de múltiples modelos y mejora tu flujo de trabajo con ideas más profundas utilizando el Multi-Model Advisor MCP de FlowHunt.