any-chat-completions-mcp MCP-Server

Verbinden Sie sich mühelos mit jeder OpenAI-kompatiblen Chat-API über einen einzigen MCP-Server und optimieren Sie Multi-Provider-LLM-Workflows in FlowHunt und darüber hinaus.

any-chat-completions-mcp MCP-Server

Was macht der “any-chat-completions-mcp” MCP-Server?

Der any-chat-completions-mcp MCP-Server fungiert als Brücke zwischen KI-Assistenten und jeder OpenAI SDK-kompatiblen Chat Completion API, wie OpenAI, Perplexity, Groq, xAI und PyroPrompts. Durch die Einhaltung des Model Context Protocol (MCP) ermöglicht er die nahtlose Integration externer LLM-Anbieter in Entwicklungs-Workflows. Seine Hauptfunktion besteht darin, chatbasierte Fragen an einen konfigurierten KI-Chat-Anbieter weiterzuleiten, sodass Entwickler verschiedene LLMs als Tools in ihrer bevorzugten Umgebung nutzen können. So wird das Wechseln zwischen Anbietern oder das Skalieren der LLM-Nutzung unkompliziert, was Flexibilität und Effizienz in KI-gestützten Anwendungen fördert.

Liste der Prompts

Im Repository oder in der Dokumentation werden keine Prompt-Templates erwähnt.

Liste der Ressourcen

Im Repository oder README sind keine expliziten MCP-Ressourcen dokumentiert.

Liste der Tools

  • chat: Leitet eine Frage an einen konfigurierten KI-Chat-Anbieter weiter. Dies ist das Haupt- (und einzige) Tool des Servers und ermöglicht es LLMs oder Clients, chatbasierte Anfragen an jeden OpenAI-kompatiblen API-Endpunkt zu senden.

Anwendungsfälle dieses MCP-Servers

  • Vereinheitlichte LLM-Integration: Entwickler können über einen einzigen MCP-Server mehrere LLM-Anbieter nutzen, ohne ihren Client-Code zu ändern – das vereinfacht das Anbietermanagement.
  • Provider Switching: Wechseln Sie einfach zwischen OpenAI, PyroPrompts, Perplexity und anderen, indem Sie Umgebungsvariablen aktualisieren – nützlich für Kostenoptimierung oder Fallback-Strategien.
  • Eigene Desktop-KI-Agenten: Integrieren Sie fortschrittliche chatbasierte LLMs in Desktop-Anwendungen (z.B. Claude Desktop), um erweiterte Assistentenfunktionen bereitzustellen.
  • Experimentieren und Benchmarking: Vergleichen Sie schnell die Ergebnisse verschiedener LLMs in standardisierter Form für Forschung, Qualitätssicherung oder Produktentwicklung.
  • API-Gateway für LLMs: Agiert als schlankes Gateway für das sichere Routing von Chat-Nachrichten an verschiedene LLM-APIs und zentralisiert die Verwaltung von API-Schlüsseln und Endpunkten.

Einrichtung

Windsurf

Für Windsurf sind im Repository oder in der Dokumentation keine plattformspezifischen Anweisungen vorhanden.

Claude

  1. Voraussetzung: Stellen Sie sicher, dass Node.js und npx installiert sind.
  2. Konfigurationsdatei finden: Bearbeiten Sie claude_desktop_config.json (unter MacOS: ~/Library/Application Support/Claude/claude_desktop_config.json; unter Windows: %APPDATA%/Claude/claude_desktop_config.json).
  3. MCP-Server hinzufügen: Fügen Sie die MCP-Server-Konfiguration unter dem Objekt mcpServers hinzu.
  4. Umgebungsvariablen setzen: Tragen Sie Provider-API-Schlüssel und weitere Informationen ins env-Objekt ein.
  5. Speichern und Neustarten: Speichern Sie die Datei und starten Sie Claude Desktop neu, um die Änderungen zu übernehmen.

Beispiel-JSON:

{
  "mcpServers": {
    "chat-openai": {
      "command": "npx",
      "args": [
        "@pyroprompts/any-chat-completions-mcp"
      ],
      "env": {
        "AI_CHAT_KEY": "OPENAI_KEY",
        "AI_CHAT_NAME": "OpenAI",
        "AI_CHAT_MODEL": "gpt-4o",
        "AI_CHAT_BASE_URL": "https://api.openai.com/v1"
      }
    }
  }
}

API-Schlüssel sichern (per Umgebungsvariablen):

"env": {
  "AI_CHAT_KEY": "IHR_PROVIDER_KEY"
}

Cursor

Für Cursor sind im Repository oder in der Dokumentation keine plattformspezifischen Anweisungen vorhanden.

Cline

Für Cline sind im Repository oder in der Dokumentation keine plattformspezifischen Anweisungen vorhanden.

Nutzung dieses MCP in Flows

Verwendung von MCP in FlowHunt

Um MCP-Server in Ihren FlowHunt-Workflow zu integrieren, fügen Sie zunächst die MCP-Komponente zu Ihrem Flow hinzu und verbinden Sie sie mit Ihrem KI-Agenten:

FlowHunt MCP-Flow

Klicken Sie auf die MCP-Komponente, um das Konfigurationspanel zu öffnen. Im Bereich System-MCP-Konfiguration fügen Sie Ihre MCP-Server-Daten im folgenden JSON-Format ein:

{
  "MCP-name": {
    "transport": "streamable_http",
    "url": "https://ihremcpserver.beispiel/pathtothemcp/url"
  }
}

Nach der Konfiguration kann der KI-Agent diesen MCP als Tool mit Zugriff auf alle Funktionen und Möglichkeiten verwenden. Denken Sie daran, “MCP-name” durch den tatsächlichen Namen Ihres MCP-Servers zu ersetzen (z.B. “github-mcp”, “weather-api” etc.) und die URL auf Ihre eigene MCP-Server-URL anzupassen.


Übersicht

AbschnittVerfügbarkeitDetails/Anmerkungen
ÜbersichtZweck und Funktionen in README beschrieben
Liste der PromptsKeine Prompt-Templates erwähnt
Liste der RessourcenKeine expliziten MCP-Ressourcen dokumentiert
Liste der Tools“chat”-Tool im README beschrieben
API-Schlüssel-SicherungVerwendet “env” in JSON zur Schlüsselverwaltung
Sampling-Unterstützung (weniger wichtig)Keine Erwähnung von Sampling-Features

Basierend auf dem obigen ist any-chat-completions-mcp ein schlanker, fokussierter MCP-Server, ideal um generische OpenAI-kompatible Chat-APIs als Tools einzubinden. Seine Stärke liegt in Einfachheit und breiter Kompatibilität, er bietet jedoch keine Ressourcen- oder Prompt-Abstraktionen. Für Routine-LLM-Integrationen ist er robust, Power-User könnten sich mehr Features wünschen. Insgesamt würde ich diesen MCP mit 6/10 für den allgemeinen Einsatz bewerten.


MCP-Bewertung

Hat eine LICENSE✅ (MIT)
Mindestens ein Tool
Anzahl Forks17
Anzahl Sterne129

Häufig gestellte Fragen

Was ist any-chat-completions-mcp?

Dies ist ein MCP-Server, der FlowHunt oder jeden MCP-kompatiblen Client mit jeder OpenAI SDK-kompatiblen Chat Completion API verbindet, einschließlich Anbieter wie OpenAI, Perplexity, Groq, xAI und PyroPrompts. Er leitet chatbasierte Anfragen über ein einziges, einfaches Tool und eine Konfiguration weiter.

Was sind die Hauptanwendungsfälle für diesen MCP-Server?

Vereinheitlichte LLM-Integration, schneller Anbieterwechsel, Einsatz für Desktop-KI-Agenten, LLM-Benchmarking und als sicheres API-Gateway für chatbasierte Anfragen.

Wie wechsele ich zwischen LLM-Anbietern?

Das Wechseln ist so einfach wie das Aktualisieren von Umgebungsvariablen (z.B. API-Schlüssel, Basis-URL, Modellname) in Ihrer MCP-Server-Konfiguration. Es sind keine Codeänderungen nötig – nach der Aktualisierung der Konfiguration starten Sie Ihren Client einfach neu.

Ist dieser Server sicher für die Verwaltung von API-Schlüsseln?

Ja, API-Schlüssel werden über Umgebungsvariablen in der Konfiguration verwaltet. Dadurch bleiben Zugangsdaten außerhalb Ihres Quellcodes und die Sicherheit wird erhöht.

Welches Haupt-Tool stellt dieser MCP-Server bereit?

Ein einziges 'chat'-Tool, das chatbasierte Nachrichten an jede konfigurierte OpenAI-kompatible API-Endpoint weiterleitet.

Unterstützt der Server Prompt-Templates oder Ressourcenabstraktionen?

Nein, der Server ist fokussiert und schlank für Chat Completions. Prompt-Templates oder zusätzliche Ressourcenebenen werden nicht bereitgestellt.

Integrieren Sie any-chat-completions-mcp in FlowHunt

Vereinheitlichen Sie Ihre KI-Chat-API-Verbindungen und wechseln Sie Anbieter mühelos mit dem any-chat-completions-mcp MCP-Server. Perfekt für Entwickler, die Flexibilität und Einfachheit suchen.

Mehr erfahren