Multi-Model Advisor MCP Server
Mit dem Multi-Model Advisor MCP Server von FlowHunt können Ihre KI-Agenten mehrere Ollama-Modelle gleichzeitig konsultieren und deren Ergebnisse für umfassendere Antworten und fortschrittliche kollaborative Entscheidungsfindung kombinieren.

Was macht der “Multi-Model Advisor” MCP Server?
Der Multi-Model Advisor MCP Server ist ein Model Context Protocol (MCP) Server, der KI-Assistenten mit mehreren lokalen Ollama-Modellen verbindet. So können sie mehrere Modelle gleichzeitig abfragen und deren Antworten kombinieren. Dieser Ansatz, auch als „Rat der Berater“ bezeichnet, ermöglicht es KI-Systemen wie Claude, verschiedene Standpunkte unterschiedlicher Modelle zu synthetisieren und dadurch umfassendere und nuanciertere Antworten auf Benutzeranfragen zu liefern. Der Server unterstützt die Zuweisung unterschiedlicher Rollen oder Personas pro Modell, das Anpassen von System-Prompts und integriert sich nahtlos in Umgebungen wie Claude for Desktop. Er verbessert Entwickler-Workflows, indem er Aufgaben wie die Aggregation von Modellmeinungen, die Unterstützung fortschrittlicher Entscheidungsfindung sowie die Bereitstellung reichhaltiger Kontextinformationen aus mehreren KI-Quellen erleichtert.
Liste der Prompts
- ⛔ Es sind keine expliziten Prompt-Vorlagen im Repository oder README dokumentiert.
Liste der Ressourcen
- ⛔ Im Repository oder in der Dokumentation sind keine spezifischen MCP-Ressourcen aufgelistet.
Liste der Tools
- ⛔ Das Repository enthält keine direkte Liste von Tools in einer Datei wie
server.py
, und auch in README oder Dateibaum sind keine Tool-Interfaces explizit dokumentiert.
Anwendungsfälle dieses MCP Servers
- Aggregierte Modellmeinungen: Entwickler können den Server verwenden, um mehrere Perspektiven verschiedener Ollama-Modelle zu einer Frage einzuholen – für ausgewogenere und fundiertere Entscheidungen.
- Rollenbasiertes Abfragen: Unterschiedlichen Modellen können verschiedene Rollen oder Personas zugewiesen werden, um verschiedene Expertenmeinungen für Szenarioanalysen oder Brainstorming zu simulieren.
- System-Model-Übersicht: Durch die Übersicht aller auf dem System verfügbaren Ollama-Modelle können Nutzer die optimale Kombination für ihren speziellen Anwendungsfall auswählen.
- Kollaborative KI-Entscheidungsfindung: Der „Rat der Berater“-Ansatz hilft, verschiedene Modellausgaben zu synthetisieren – wertvoll bei komplexen Problemen oder wenn Konsens gefragt ist.
- Workflow-Integration: Die nahtlose Integration mit Claude for Desktop und anderen MCP-kompatiblen Clients unterstützt die Produktivität von Entwicklern und ermöglicht einfachen Zugriff auf Multi-Model-Einblicke.
Einrichtung
Windsurf
- Stellen Sie sicher, dass Node.js 16.x oder höher installiert ist.
- Installieren und starten Sie Ollama und stellen Sie sicher, dass die benötigten Modelle vorhanden sind.
- Bearbeiten Sie Ihre Windsurf-Konfigurationsdatei und fügen Sie den Multi-Model Advisor MCP Server hinzu.
- Fügen Sie folgenden JSON-Ausschnitt in den Abschnitt
mcpServers
ein:{ "multi-ai-advisor-mcp": { "command": "npx", "args": ["@YuChenSSR/multi-ai-advisor-mcp@latest"], "env": { "OLLAMA_HOST": "http://localhost:11434" } } }
- Konfiguration speichern und Windsurf neu starten.
- Überprüfen, ob der Server läuft und erreichbar ist.
Claude
- Installieren Sie Node.js 16.x oder höher.
- Stellen Sie sicher, dass Ollama läuft und die benötigten Modelle bereitstehen.
- Mit Smithery in einem Schritt installieren:
npx -y @smithery/cli install @YuChenSSR/multi-ai-advisor-mcp --client claude
- Alternativ diesen Block in Ihre Claude MCP-Konfiguration einfügen:
{ "multi-ai-advisor-mcp": { "command": "npx", "args": ["@YuChenSSR/multi-ai-advisor-mcp@latest"], "env": { "OLLAMA_HOST": "http://localhost:11434" } } }
- Speichern und Claude neu starten, dann Integration überprüfen.
Cursor
- Installieren Sie Node.js und Ollama.
- Bearbeiten Sie die MCP-Serverkonfiguration von Cursor und fügen Sie Folgendes hinzu:
{ "multi-ai-advisor-mcp": { "command": "npx", "args": ["@YuChenSSR/multi-ai-advisor-mcp@latest"], "env": { "OLLAMA_HOST": "http://localhost:11434" } } }
- Konfiguration speichern, Cursor neu starten und MCP-Verfügbarkeit prüfen.
Cline
- Voraussetzungen: Node.js, Ollama, benötigte Modelle.
- Cline-MCP-Konfigurationsdatei suchen und bearbeiten.
- Folgendes hinzufügen:
{ "multi-ai-advisor-mcp": { "command": "npx", "args": ["@YuChenSSR/multi-ai-advisor-mcp@latest"], "env": { "OLLAMA_HOST": "http://localhost:11434" } } }
- Speichern, Cline neu starten und sicherstellen, dass MCP funktioniert.
API-Schlüssel sichern
Um API-Schlüssel oder sensible Umgebungsvariablen zu schützen, verwenden Sie das env
-Feld in Ihrer Konfiguration:
{
"multi-ai-advisor-mcp": {
"command": "npx",
"args": ["@YuChenSSR/multi-ai-advisor-mcp@latest"],
"env": {
"OLLAMA_HOST": "http://localhost:11434",
"MY_SECRET_API_KEY": "${MY_SECRET_API_KEY}"
}
}
}
Setzen Sie Umgebungsvariablen in Ihrem Betriebssystem oder in Ihrer CI/CD-Pipeline, um das Festschreiben von Geheimnissen zu vermeiden.
So nutzen Sie dieses MCP in Flows
Verwendung von MCP in FlowHunt
Um MCP-Server in Ihren FlowHunt-Workflow zu integrieren, fügen Sie zunächst die MCP-Komponente zu Ihrem Flow hinzu und verbinden Sie diese mit Ihrem KI-Agenten:

Klicken Sie auf die MCP-Komponente, um das Konfigurationspanel zu öffnen. Tragen Sie im Bereich System-MCP-Konfiguration Ihre MCP-Serverdetails in folgendem JSON-Format ein:
{
"multi-ai-advisor-mcp": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
Nach der Konfiguration kann der KI-Agent dieses MCP als Tool nutzen und erhält Zugriff auf alle Funktionen. Denken Sie daran, “multi-ai-advisor-mcp” durch den tatsächlichen Namen Ihres MCP-Servers zu ersetzen und die URL durch Ihre eigene MCP-Server-URL auszutauschen.
Überblick
Abschnitt | Verfügbarkeit | Details/Anmerkungen |
---|---|---|
Übersicht | ✅ | README.md, Homepage |
Liste der Prompts | ⛔ | Keine Prompt-Vorlagen gefunden |
Liste der Ressourcen | ⛔ | Keine expliziten Ressourcen gelistet |
Liste der Tools | ⛔ | Keine Tool-Liste im Code oder in den Docs |
API-Schlüssel sichern | ✅ | .env & JSON-Konfigurationsbeispiele |
Sampling-Unterstützung (weniger relevant) | ⛔ | Nicht erwähnt |
Unsere Einschätzung
Der Multi-Model Advisor MCP ist für die Einrichtung gut dokumentiert und bietet einen einzigartigen „Rat der Berater“-Ansatz, es fehlt aber an Transparenz bezüglich Prompts, Ressourcen und Tools. Der Nutzen ist für Multi-Model-Entscheidungs-Workflows hoch, mehr technische Details wären jedoch wünschenswert. Ich würde diese MCP mit 6/10 bewerten, da sie die Grundlagen abdeckt und einen überzeugenden Anwendungsfall bietet, aber hinsichtlich technischer Dokumentation noch Luft nach oben besteht.
MCP Score
Hat eine LICENSE | ✅ (MIT) |
---|---|
Mindestens ein Tool | ⛔ |
Anzahl der Forks | 15 |
Anzahl der Stars | 49 |
Häufig gestellte Fragen
- Was ist der Multi-Model Advisor MCP Server?
Es handelt sich um einen MCP-Server, der KI-Assistenten gleichzeitig mit mehreren Ollama-Modellen verbindet, sodass sie Antworten mehrerer Modelle (‚Rat der Berater‘) kombinieren können – für umfassendere und nuanciertere Resultate.
- Was sind die wichtigsten Anwendungsfälle?
Anwendungsfälle sind unter anderem die Aggregation von Modellmeinungen für ausgewogene Entscheidungen, rollenbasiertes Abfragen für Szenarioanalysen, kollaborative KI-Entscheidungsfindung und verbesserte Entwickler-Workflows durch Multi-Model-Einblicke.
- Wie sichere ich sensible Umgebungsvariablen?
Sie sollten das 'env'-Feld in Ihrer MCP-Konfiguration für Geheimnisse verwenden und Variablen in Ihrem Betriebssystem oder Ihrer CI/CD-Umgebung setzen, statt sie im Code oder in Konfigurationsdateien fest zu hinterlegen.
- Kann ich verschiedenen Modellen unterschiedliche Rollen zuweisen?
Ja, Sie können jedem Ollama-Modell individuelle System-Prompts oder Rollen zuweisen und so Szenarien mit mehreren Expertenperspektiven simulieren.
- Wie integriere ich den MCP-Server in FlowHunt?
Fügen Sie die MCP-Komponente zu Ihrem Flow hinzu und tragen Sie im System-MCP-Konfigurationspanel die Serverdetails ein. Dadurch haben Ihre KI-Agenten Zugriff auf alle Funktionen des Servers.
Testen Sie den Multi-Model Advisor MCP Server
Entfesseln Sie die Kraft eines KI-Beratergremiums. Aggregieren Sie Perspektiven mehrerer Modelle und steigern Sie Ihren Workflow mit umfassenderen Einblicken durch FlowHunts Multi-Model Advisor MCP.