any-chat-completions-mcp MCP-Server

AI Chatbot MCP Server OpenAI

Kontaktieren Sie uns, um Ihren MCP-Server in FlowHunt zu hosten

FlowHunt bietet eine zusätzliche Sicherheitsschicht zwischen Ihren internen Systemen und KI-Tools und gibt Ihnen granulare Kontrolle darüber, welche Tools von Ihren MCP-Servern aus zugänglich sind. In unserer Infrastruktur gehostete MCP-Server können nahtlos mit FlowHunts Chatbot sowie beliebten KI-Plattformen wie ChatGPT, Claude und verschiedenen KI-Editoren integriert werden.

Was macht der “any-chat-completions-mcp” MCP-Server?

Der any-chat-completions-mcp MCP-Server fungiert als Brücke zwischen KI-Assistenten und jeder OpenAI SDK-kompatiblen Chat Completion API, wie OpenAI, Perplexity, Groq, xAI und PyroPrompts. Durch die Einhaltung des Model Context Protocol (MCP) ermöglicht er die nahtlose Integration externer LLM-Anbieter in Entwicklungs-Workflows. Seine Hauptfunktion besteht darin, chatbasierte Fragen an einen konfigurierten KI-Chat-Anbieter weiterzuleiten, sodass Entwickler verschiedene LLMs als Tools in ihrer bevorzugten Umgebung nutzen können. So wird das Wechseln zwischen Anbietern oder das Skalieren der LLM-Nutzung unkompliziert, was Flexibilität und Effizienz in KI-gestützten Anwendungen fördert.

Liste der Prompts

Im Repository oder in der Dokumentation werden keine Prompt-Templates erwähnt.

Logo

Bereit, Ihr Geschäft zu erweitern?

Starten Sie heute Ihre kostenlose Testversion und sehen Sie innerhalb weniger Tage Ergebnisse.

Liste der Ressourcen

Im Repository oder README sind keine expliziten MCP-Ressourcen dokumentiert.

Liste der Tools

  • chat: Leitet eine Frage an einen konfigurierten KI-Chat-Anbieter weiter. Dies ist das Haupt- (und einzige) Tool des Servers und ermöglicht es LLMs oder Clients, chatbasierte Anfragen an jeden OpenAI-kompatiblen API-Endpunkt zu senden.

Anwendungsfälle dieses MCP-Servers

  • Vereinheitlichte LLM-Integration: Entwickler können über einen einzigen MCP-Server mehrere LLM-Anbieter nutzen, ohne ihren Client-Code zu ändern – das vereinfacht das Anbietermanagement.
  • Provider Switching: Wechseln Sie einfach zwischen OpenAI, PyroPrompts, Perplexity und anderen, indem Sie Umgebungsvariablen aktualisieren – nützlich für Kostenoptimierung oder Fallback-Strategien.
  • Eigene Desktop-KI-Agenten: Integrieren Sie fortschrittliche chatbasierte LLMs in Desktop-Anwendungen (z.B. Claude Desktop), um erweiterte Assistentenfunktionen bereitzustellen.
  • Experimentieren und Benchmarking: Vergleichen Sie schnell die Ergebnisse verschiedener LLMs in standardisierter Form für Forschung, Qualitätssicherung oder Produktentwicklung.
  • API-Gateway für LLMs: Agiert als schlankes Gateway für das sichere Routing von Chat-Nachrichten an verschiedene LLM-APIs und zentralisiert die Verwaltung von API-Schlüsseln und Endpunkten.

Einrichtung

Windsurf

Für Windsurf sind im Repository oder in der Dokumentation keine plattformspezifischen Anweisungen vorhanden.

Claude

  1. Voraussetzung: Stellen Sie sicher, dass Node.js und npx installiert sind.
  2. Konfigurationsdatei finden: Bearbeiten Sie claude_desktop_config.json (unter MacOS: ~/Library/Application Support/Claude/claude_desktop_config.json; unter Windows: %APPDATA%/Claude/claude_desktop_config.json).
  3. MCP-Server hinzufügen: Fügen Sie die MCP-Server-Konfiguration unter dem Objekt mcpServers hinzu.
  4. Umgebungsvariablen setzen: Tragen Sie Provider-API-Schlüssel und weitere Informationen ins env-Objekt ein.
  5. Speichern und Neustarten: Speichern Sie die Datei und starten Sie Claude Desktop neu, um die Änderungen zu übernehmen.

Beispiel-JSON:

{
  "mcpServers": {
    "chat-openai": {
      "command": "npx",
      "args": [
        "@pyroprompts/any-chat-completions-mcp"
      ],
      "env": {
        "AI_CHAT_KEY": "OPENAI_KEY",
        "AI_CHAT_NAME": "OpenAI",
        "AI_CHAT_MODEL": "gpt-4o",
        "AI_CHAT_BASE_URL": "v1/chat/completions"
      }
    }
  }
}

API-Schlüssel sichern (per Umgebungsvariablen):

"env": {
  "AI_CHAT_KEY": "IHR_PROVIDER_KEY"
}

Cursor

Für Cursor sind im Repository oder in der Dokumentation keine plattformspezifischen Anweisungen vorhanden.

Cline

Für Cline sind im Repository oder in der Dokumentation keine plattformspezifischen Anweisungen vorhanden.

Nutzung dieses MCP in Flows

Verwendung von MCP in FlowHunt

Um MCP-Server in Ihren FlowHunt-Workflow zu integrieren, fügen Sie zunächst die MCP-Komponente zu Ihrem Flow hinzu und verbinden Sie sie mit Ihrem KI-Agenten:

FlowHunt MCP-Flow

Klicken Sie auf die MCP-Komponente, um das Konfigurationspanel zu öffnen. Im Bereich System-MCP-Konfiguration fügen Sie Ihre MCP-Server-Daten im folgenden JSON-Format ein:

{
  "MCP-name": {
    "transport": "streamable_http",
    "url": "https://ihremcpserver.beispiel/pathtothemcp/url"
  }
}

Nach der Konfiguration kann der KI-Agent diesen MCP als Tool mit Zugriff auf alle Funktionen und Möglichkeiten verwenden. Denken Sie daran, “MCP-name” durch den tatsächlichen Namen Ihres MCP-Servers zu ersetzen (z.B. “github-mcp”, “weather-api” etc.) und die URL auf Ihre eigene MCP-Server-URL anzupassen.


Übersicht

AbschnittVerfügbarkeitDetails/Anmerkungen
ÜbersichtZweck und Funktionen in README beschrieben
Liste der PromptsKeine Prompt-Templates erwähnt
Liste der RessourcenKeine expliziten MCP-Ressourcen dokumentiert
Liste der Tools“chat”-Tool im README beschrieben
API-Schlüssel-SicherungVerwendet “env” in JSON zur Schlüsselverwaltung
Sampling-Unterstützung (weniger wichtig)Keine Erwähnung von Sampling-Features

Basierend auf dem obigen ist any-chat-completions-mcp ein schlanker, fokussierter MCP-Server, ideal um generische OpenAI-kompatible Chat-APIs als Tools einzubinden. Seine Stärke liegt in Einfachheit und breiter Kompatibilität, er bietet jedoch keine Ressourcen- oder Prompt-Abstraktionen. Für Routine-LLM-Integrationen ist er robust, Power-User könnten sich mehr Features wünschen. Insgesamt würde ich diesen MCP mit 6/10 für den allgemeinen Einsatz bewerten.


MCP-Bewertung

Hat eine LICENSE✅ (MIT)
Mindestens ein Tool
Anzahl Forks17
Anzahl Sterne129

Häufig gestellte Fragen

Integrieren Sie any-chat-completions-mcp in FlowHunt

Vereinheitlichen Sie Ihre KI-Chat-API-Verbindungen und wechseln Sie Anbieter mühelos mit dem any-chat-completions-mcp MCP-Server. Perfekt für Entwickler, die Flexibilität und Einfachheit suchen.

Mehr erfahren

Chat MCP Server
Chat MCP Server

Chat MCP Server

Chat MCP ist eine plattformübergreifende Desktop-Chat-Anwendung, die das Model Context Protocol (MCP) nutzt, um mit verschiedenen Large Language Models (LLMs) z...

4 Min. Lesezeit
AI MCP +5
Jeder OpenAPI MCP Server
Jeder OpenAPI MCP Server

Jeder OpenAPI MCP Server

Verbinden Sie KI-Assistenten wie Claude mit jeder API, die eine OpenAPI (Swagger)-Spezifikation bereitstellt. Der Any OpenAPI MCP Server ermöglicht semantische ...

5 Min. Lesezeit
AI MCP Server +4