Serveur MCP Multi-Model Advisor
Le serveur MCP Multi-Model Advisor de FlowHunt permet à vos agents IA de consulter plusieurs modèles Ollama en même temps, en combinant leurs sorties pour des réponses plus complètes et une prise de décision collaborative avancée.

Que fait le serveur MCP “Multi-Model Advisor” ?
Le serveur MCP Multi-Model Advisor est un serveur Model Context Protocol (MCP) conçu pour connecter des assistants IA à plusieurs modèles Ollama locaux, leur permettant d’interroger plusieurs modèles simultanément et de combiner leurs réponses. Cette approche, décrite comme un « conseil d’experts », permet aux systèmes IA comme Claude de synthétiser des points de vue divers issus de différents modèles, aboutissant à des réponses plus complètes et nuancées aux requêtes des utilisateurs. Le serveur permet d’attribuer différents rôles ou personas à chaque modèle, de personnaliser les prompts système et s’intègre parfaitement à des environnements comme Claude for Desktop. Il améliore les workflows de développement en facilitant des tâches telles que l’agrégation d’opinions de modèles, la prise de décision avancée et la fourniture d’informations contextuelles plus riches issues de multiples sources IA.
Liste des prompts
- ⛔ Aucun modèle de prompt explicite n’est documenté dans le dépôt ou le README.
Liste des ressources
- ⛔ Aucune ressource MCP spécifique n’est listée dans le dépôt ou la documentation.
Liste des outils
- ⛔ Le dépôt ne fournit pas de liste directe d’outils dans un
server.py
ou un fichier similaire, ni d’interfaces d’outils explicitement documentées dans le README ou l’arborescence visible des fichiers.
Cas d’usage de ce serveur MCP
- Agrégation d’opinions de modèles : Les développeurs peuvent utiliser le serveur pour obtenir plusieurs perspectives de différents modèles Ollama sur une même question, menant à des décisions plus équilibrées et informées.
- Requêtes basées sur les rôles : Attribuer différents rôles ou personas à chaque modèle permet de simuler divers points de vue d’experts pour l’analyse de scénarios ou le brainstorming.
- Vue d’ensemble des modèles système : En visualisant tous les modèles Ollama disponibles sur le système, les utilisateurs peuvent sélectionner la meilleure combinaison pour leur cas d’usage spécifique.
- Prise de décision collaborative IA : L’approche « conseil d’experts » aide à synthétiser les sorties de modèles variées, ce qui est précieux pour la résolution de problèmes complexes ou lorsqu’un consensus est nécessaire.
- Intégration au workflow : L’intégration transparente à Claude for Desktop et aux autres clients compatibles MCP soutient la productivité des développeurs et facilite l’accès aux analyses multi-modèles.
Comment le mettre en place
Windsurf
- Vérifiez que Node.js 16.x ou supérieur est installé.
- Installez et lancez Ollama, et assurez-vous que les modèles requis sont disponibles.
- Modifiez votre fichier de configuration Windsurf pour ajouter le serveur MCP Multi-Model Advisor.
- Ajoutez l’extrait JSON suivant à votre section
mcpServers
:{ "multi-ai-advisor-mcp": { "command": "npx", "args": ["@YuChenSSR/multi-ai-advisor-mcp@latest"], "env": { "OLLAMA_HOST": "http://localhost:11434" } } }
- Sauvegardez la configuration et redémarrez Windsurf.
- Vérifiez que le serveur fonctionne et est accessible.
Claude
- Installez Node.js 16.x ou supérieur.
- Vérifiez qu’Ollama fonctionne et que les modèles requis sont installés.
- Utilisez Smithery pour une installation en une étape :
npx -y @smithery/cli install @YuChenSSR/multi-ai-advisor-mcp --client claude
- Sinon, ajoutez ce bloc à votre configuration MCP Claude :
{ "multi-ai-advisor-mcp": { "command": "npx", "args": ["@YuChenSSR/multi-ai-advisor-mcp@latest"], "env": { "OLLAMA_HOST": "http://localhost:11434" } } }
- Sauvegardez et redémarrez Claude, puis vérifiez l’intégration.
Cursor
- Installez Node.js et Ollama.
- Modifiez la configuration du serveur MCP de Cursor pour inclure :
{ "multi-ai-advisor-mcp": { "command": "npx", "args": ["@YuChenSSR/multi-ai-advisor-mcp@latest"], "env": { "OLLAMA_HOST": "http://localhost:11434" } } }
- Sauvegardez la configuration, redémarrez Cursor et vérifiez la disponibilité du MCP.
Cline
- Vérifiez les prérequis : Node.js, Ollama, modèles requis.
- Localisez et modifiez le fichier de configuration MCP de Cline.
- Ajoutez :
{ "multi-ai-advisor-mcp": { "command": "npx", "args": ["@YuChenSSR/multi-ai-advisor-mcp@latest"], "env": { "OLLAMA_HOST": "http://localhost:11434" } } }
- Sauvegardez, redémarrez Cline et confirmez que le MCP fonctionne.
Sécurisation des clés API
Pour sécuriser les clés API ou variables d’environnement sensibles, utilisez le champ env
dans votre configuration :
{
"multi-ai-advisor-mcp": {
"command": "npx",
"args": ["@YuChenSSR/multi-ai-advisor-mcp@latest"],
"env": {
"OLLAMA_HOST": "http://localhost:11434",
"MY_SECRET_API_KEY": "${MY_SECRET_API_KEY}"
}
}
}
Définissez les variables d’environnement dans votre OS ou votre pipeline CI/CD afin d’éviter d’intégrer les secrets en dur.
Comment utiliser ce MCP dans vos flows
Utiliser le MCP dans FlowHunt
Pour intégrer des serveurs MCP dans votre workflow FlowHunt, commencez par ajouter le composant MCP à votre flow et connectez-le à votre agent IA :

Cliquez sur le composant MCP pour ouvrir le panneau de configuration. Dans la section configuration système MCP, insérez les détails de votre serveur MCP en utilisant ce format JSON :
{
"multi-ai-advisor-mcp": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
Une fois configuré, l’agent IA pourra utiliser ce MCP comme outil, avec accès à toutes ses fonctions et capacités. N’oubliez pas de remplacer “multi-ai-advisor-mcp” par le nom réel de votre serveur MCP et l’URL par celle de votre propre serveur MCP.
Vue d’ensemble
Section | Disponibilité | Détails/Remarques |
---|---|---|
Vue d’ensemble | ✅ | README.md, page d’accueil |
Liste des prompts | ⛔ | Aucun modèle de prompt trouvé |
Liste des ressources | ⛔ | Aucune ressource explicite listée |
Liste des outils | ⛔ | Aucune liste d’outils trouvée dans le code/docs |
Sécurisation des clés API | ✅ | Exemples .env & config JSON |
Support de l’échantillonnage (peu important) | ⛔ | Non mentionné |
Notre avis
Le Multi-Model Advisor MCP est bien documenté pour l’installation et propose une approche unique de « conseil d’experts », mais manque de transparence sur les prompts, ressources et outils. Sa valeur est élevée pour des workflows de décision multi-modèles, bien qu’un niveau de détail technique plus poussé l’améliorerait. Je noterais ce MCP à 6/10 sur la base des deux tableaux, car il couvre les bases et offre un cas d’usage convaincant, mais manque de profondeur dans la documentation technique.
Score MCP
Dispose d’une LICENCE | ✅ (MIT) |
---|---|
Au moins un outil | ⛔ |
Nombre de forks | 15 |
Nombre d’étoiles | 49 |
Questions fréquemment posées
- Qu’est-ce que le serveur MCP Multi-Model Advisorxa0?
C’est un serveur MCP qui connecte les assistants IA à plusieurs modèles Ollama simultanément, leur permettant de combiner les réponses de plusieurs modèles («xa0conseil d’expertsxa0») pour des réponses plus complètes et nuancées.
- Quels sont les principaux cas d’usagexa0?
Les cas d’usage incluent l’agrégation d’opinions de modèles pour des décisions équilibrées, les requêtes basées sur les rôles pour l’analyse de scénarios, la prise de décision collaborative par IA et des workflows développeur enrichis grâce à l’analyse multi-modèle.
- Comment sécuriser les variables d’environnement sensiblesxa0?
Vous devez utiliser le champ 'env' dans votre configuration MCP pour les secrets, et définir les variables dans votre OS ou votre environnement CI/CD, en évitant de les coder en dur dans le code ou les fichiers de configuration.
- Puis-je attribuer des rôles ou personas différents à chaque modèlexa0?
Oui, vous pouvez attribuer des prompts système ou rôles distincts à chaque modèle Ollama, permettant des simulations de scénarios avec plusieurs perspectives d’experts.
- Comment intégrer le serveur MCP dans FlowHuntxa0?
Ajoutez le composant MCP à votre flow, puis utilisez le panneau de configuration système MCP pour insérer les détails de votre serveur. Cela permet à vos agents IA d’accéder à toutes les fonctions du serveur.
Essayez le serveur MCP Multi-Model Advisor
Libérez la puissance d’un conseil d’experts IA. Agrégez les perspectives de plusieurs modèles et améliorez votre workflow grâce à des analyses plus riches avec le Multi-Model Advisor MCP de FlowHunt.