any-chat-completions-mcp MCP-Server
Verbinden Sie sich mühelos mit jeder OpenAI-kompatiblen Chat-API über einen einzigen MCP-Server und optimieren Sie Multi-Provider-LLM-Workflows in FlowHunt und darüber hinaus.

Was macht der “any-chat-completions-mcp” MCP-Server?
Der any-chat-completions-mcp MCP-Server fungiert als Brücke zwischen KI-Assistenten und jeder OpenAI SDK-kompatiblen Chat Completion API, wie OpenAI, Perplexity, Groq, xAI und PyroPrompts. Durch die Einhaltung des Model Context Protocol (MCP) ermöglicht er die nahtlose Integration externer LLM-Anbieter in Entwicklungs-Workflows. Seine Hauptfunktion besteht darin, chatbasierte Fragen an einen konfigurierten KI-Chat-Anbieter weiterzuleiten, sodass Entwickler verschiedene LLMs als Tools in ihrer bevorzugten Umgebung nutzen können. So wird das Wechseln zwischen Anbietern oder das Skalieren der LLM-Nutzung unkompliziert, was Flexibilität und Effizienz in KI-gestützten Anwendungen fördert.
Liste der Prompts
Im Repository oder in der Dokumentation werden keine Prompt-Templates erwähnt.
Liste der Ressourcen
Im Repository oder README sind keine expliziten MCP-Ressourcen dokumentiert.
Liste der Tools
- chat: Leitet eine Frage an einen konfigurierten KI-Chat-Anbieter weiter. Dies ist das Haupt- (und einzige) Tool des Servers und ermöglicht es LLMs oder Clients, chatbasierte Anfragen an jeden OpenAI-kompatiblen API-Endpunkt zu senden.
Anwendungsfälle dieses MCP-Servers
- Vereinheitlichte LLM-Integration: Entwickler können über einen einzigen MCP-Server mehrere LLM-Anbieter nutzen, ohne ihren Client-Code zu ändern – das vereinfacht das Anbietermanagement.
- Provider Switching: Wechseln Sie einfach zwischen OpenAI, PyroPrompts, Perplexity und anderen, indem Sie Umgebungsvariablen aktualisieren – nützlich für Kostenoptimierung oder Fallback-Strategien.
- Eigene Desktop-KI-Agenten: Integrieren Sie fortschrittliche chatbasierte LLMs in Desktop-Anwendungen (z.B. Claude Desktop), um erweiterte Assistentenfunktionen bereitzustellen.
- Experimentieren und Benchmarking: Vergleichen Sie schnell die Ergebnisse verschiedener LLMs in standardisierter Form für Forschung, Qualitätssicherung oder Produktentwicklung.
- API-Gateway für LLMs: Agiert als schlankes Gateway für das sichere Routing von Chat-Nachrichten an verschiedene LLM-APIs und zentralisiert die Verwaltung von API-Schlüsseln und Endpunkten.
Einrichtung
Windsurf
Für Windsurf sind im Repository oder in der Dokumentation keine plattformspezifischen Anweisungen vorhanden.
Claude
- Voraussetzung: Stellen Sie sicher, dass Node.js und
npx
installiert sind. - Konfigurationsdatei finden: Bearbeiten Sie
claude_desktop_config.json
(unter MacOS:~/Library/Application Support/Claude/claude_desktop_config.json
; unter Windows:%APPDATA%/Claude/claude_desktop_config.json
). - MCP-Server hinzufügen: Fügen Sie die MCP-Server-Konfiguration unter dem Objekt
mcpServers
hinzu. - Umgebungsvariablen setzen: Tragen Sie Provider-API-Schlüssel und weitere Informationen ins
env
-Objekt ein. - Speichern und Neustarten: Speichern Sie die Datei und starten Sie Claude Desktop neu, um die Änderungen zu übernehmen.
Beispiel-JSON:
{
"mcpServers": {
"chat-openai": {
"command": "npx",
"args": [
"@pyroprompts/any-chat-completions-mcp"
],
"env": {
"AI_CHAT_KEY": "OPENAI_KEY",
"AI_CHAT_NAME": "OpenAI",
"AI_CHAT_MODEL": "gpt-4o",
"AI_CHAT_BASE_URL": "https://api.openai.com/v1"
}
}
}
}
API-Schlüssel sichern (per Umgebungsvariablen):
"env": {
"AI_CHAT_KEY": "IHR_PROVIDER_KEY"
}
Cursor
Für Cursor sind im Repository oder in der Dokumentation keine plattformspezifischen Anweisungen vorhanden.
Cline
Für Cline sind im Repository oder in der Dokumentation keine plattformspezifischen Anweisungen vorhanden.
Nutzung dieses MCP in Flows
Verwendung von MCP in FlowHunt
Um MCP-Server in Ihren FlowHunt-Workflow zu integrieren, fügen Sie zunächst die MCP-Komponente zu Ihrem Flow hinzu und verbinden Sie sie mit Ihrem KI-Agenten:

Klicken Sie auf die MCP-Komponente, um das Konfigurationspanel zu öffnen. Im Bereich System-MCP-Konfiguration fügen Sie Ihre MCP-Server-Daten im folgenden JSON-Format ein:
{
"MCP-name": {
"transport": "streamable_http",
"url": "https://ihremcpserver.beispiel/pathtothemcp/url"
}
}
Nach der Konfiguration kann der KI-Agent diesen MCP als Tool mit Zugriff auf alle Funktionen und Möglichkeiten verwenden. Denken Sie daran, “MCP-name” durch den tatsächlichen Namen Ihres MCP-Servers zu ersetzen (z.B. “github-mcp”, “weather-api” etc.) und die URL auf Ihre eigene MCP-Server-URL anzupassen.
Übersicht
Abschnitt | Verfügbarkeit | Details/Anmerkungen |
---|---|---|
Übersicht | ✅ | Zweck und Funktionen in README beschrieben |
Liste der Prompts | ⛔ | Keine Prompt-Templates erwähnt |
Liste der Ressourcen | ⛔ | Keine expliziten MCP-Ressourcen dokumentiert |
Liste der Tools | ✅ | “chat”-Tool im README beschrieben |
API-Schlüssel-Sicherung | ✅ | Verwendet “env” in JSON zur Schlüsselverwaltung |
Sampling-Unterstützung (weniger wichtig) | ⛔ | Keine Erwähnung von Sampling-Features |
Basierend auf dem obigen ist any-chat-completions-mcp ein schlanker, fokussierter MCP-Server, ideal um generische OpenAI-kompatible Chat-APIs als Tools einzubinden. Seine Stärke liegt in Einfachheit und breiter Kompatibilität, er bietet jedoch keine Ressourcen- oder Prompt-Abstraktionen. Für Routine-LLM-Integrationen ist er robust, Power-User könnten sich mehr Features wünschen. Insgesamt würde ich diesen MCP mit 6/10 für den allgemeinen Einsatz bewerten.
MCP-Bewertung
Hat eine LICENSE | ✅ (MIT) |
---|---|
Mindestens ein Tool | ✅ |
Anzahl Forks | 17 |
Anzahl Sterne | 129 |
Häufig gestellte Fragen
- Was ist any-chat-completions-mcp?
Dies ist ein MCP-Server, der FlowHunt oder jeden MCP-kompatiblen Client mit jeder OpenAI SDK-kompatiblen Chat Completion API verbindet, einschließlich Anbieter wie OpenAI, Perplexity, Groq, xAI und PyroPrompts. Er leitet chatbasierte Anfragen über ein einziges, einfaches Tool und eine Konfiguration weiter.
- Was sind die Hauptanwendungsfälle für diesen MCP-Server?
Vereinheitlichte LLM-Integration, schneller Anbieterwechsel, Einsatz für Desktop-KI-Agenten, LLM-Benchmarking und als sicheres API-Gateway für chatbasierte Anfragen.
- Wie wechsele ich zwischen LLM-Anbietern?
Das Wechseln ist so einfach wie das Aktualisieren von Umgebungsvariablen (z.B. API-Schlüssel, Basis-URL, Modellname) in Ihrer MCP-Server-Konfiguration. Es sind keine Codeänderungen nötig – nach der Aktualisierung der Konfiguration starten Sie Ihren Client einfach neu.
- Ist dieser Server sicher für die Verwaltung von API-Schlüsseln?
Ja, API-Schlüssel werden über Umgebungsvariablen in der Konfiguration verwaltet. Dadurch bleiben Zugangsdaten außerhalb Ihres Quellcodes und die Sicherheit wird erhöht.
- Welches Haupt-Tool stellt dieser MCP-Server bereit?
Ein einziges 'chat'-Tool, das chatbasierte Nachrichten an jede konfigurierte OpenAI-kompatible API-Endpoint weiterleitet.
- Unterstützt der Server Prompt-Templates oder Ressourcenabstraktionen?
Nein, der Server ist fokussiert und schlank für Chat Completions. Prompt-Templates oder zusätzliche Ressourcenebenen werden nicht bereitgestellt.
Integrieren Sie any-chat-completions-mcp in FlowHunt
Vereinheitlichen Sie Ihre KI-Chat-API-Verbindungen und wechseln Sie Anbieter mühelos mit dem any-chat-completions-mcp MCP-Server. Perfekt für Entwickler, die Flexibilität und Einfachheit suchen.