
Chat MCP Server
Chat MCP ist eine plattformübergreifende Desktop-Chat-Anwendung, die das Model Context Protocol (MCP) nutzt, um mit verschiedenen Large Language Models (LLMs) z...
Verbinden Sie sich mühelos mit jeder OpenAI-kompatiblen Chat-API über einen einzigen MCP-Server und optimieren Sie Multi-Provider-LLM-Workflows in FlowHunt und darüber hinaus.
Der any-chat-completions-mcp MCP-Server fungiert als Brücke zwischen KI-Assistenten und jeder OpenAI SDK-kompatiblen Chat Completion API, wie OpenAI, Perplexity, Groq, xAI und PyroPrompts. Durch die Einhaltung des Model Context Protocol (MCP) ermöglicht er die nahtlose Integration externer LLM-Anbieter in Entwicklungs-Workflows. Seine Hauptfunktion besteht darin, chatbasierte Fragen an einen konfigurierten KI-Chat-Anbieter weiterzuleiten, sodass Entwickler verschiedene LLMs als Tools in ihrer bevorzugten Umgebung nutzen können. So wird das Wechseln zwischen Anbietern oder das Skalieren der LLM-Nutzung unkompliziert, was Flexibilität und Effizienz in KI-gestützten Anwendungen fördert.
Im Repository oder in der Dokumentation werden keine Prompt-Templates erwähnt.
Im Repository oder README sind keine expliziten MCP-Ressourcen dokumentiert.
Für Windsurf sind im Repository oder in der Dokumentation keine plattformspezifischen Anweisungen vorhanden.
npx
installiert sind.claude_desktop_config.json
(unter MacOS: ~/Library/Application Support/Claude/claude_desktop_config.json
; unter Windows: %APPDATA%/Claude/claude_desktop_config.json
).mcpServers
hinzu.env
-Objekt ein.Beispiel-JSON:
{
"mcpServers": {
"chat-openai": {
"command": "npx",
"args": [
"@pyroprompts/any-chat-completions-mcp"
],
"env": {
"AI_CHAT_KEY": "OPENAI_KEY",
"AI_CHAT_NAME": "OpenAI",
"AI_CHAT_MODEL": "gpt-4o",
"AI_CHAT_BASE_URL": "v1/chat/completions"
}
}
}
}
API-Schlüssel sichern (per Umgebungsvariablen):
"env": {
"AI_CHAT_KEY": "IHR_PROVIDER_KEY"
}
Für Cursor sind im Repository oder in der Dokumentation keine plattformspezifischen Anweisungen vorhanden.
Für Cline sind im Repository oder in der Dokumentation keine plattformspezifischen Anweisungen vorhanden.
Verwendung von MCP in FlowHunt
Um MCP-Server in Ihren FlowHunt-Workflow zu integrieren, fügen Sie zunächst die MCP-Komponente zu Ihrem Flow hinzu und verbinden Sie sie mit Ihrem KI-Agenten:
Klicken Sie auf die MCP-Komponente, um das Konfigurationspanel zu öffnen. Im Bereich System-MCP-Konfiguration fügen Sie Ihre MCP-Server-Daten im folgenden JSON-Format ein:
{
"MCP-name": {
"transport": "streamable_http",
"url": "https://ihremcpserver.beispiel/pathtothemcp/url"
}
}
Nach der Konfiguration kann der KI-Agent diesen MCP als Tool mit Zugriff auf alle Funktionen und Möglichkeiten verwenden. Denken Sie daran, “MCP-name” durch den tatsächlichen Namen Ihres MCP-Servers zu ersetzen (z.B. “github-mcp”, “weather-api” etc.) und die URL auf Ihre eigene MCP-Server-URL anzupassen.
Abschnitt | Verfügbarkeit | Details/Anmerkungen |
---|---|---|
Übersicht | ✅ | Zweck und Funktionen in README beschrieben |
Liste der Prompts | ⛔ | Keine Prompt-Templates erwähnt |
Liste der Ressourcen | ⛔ | Keine expliziten MCP-Ressourcen dokumentiert |
Liste der Tools | ✅ | “chat”-Tool im README beschrieben |
API-Schlüssel-Sicherung | ✅ | Verwendet “env” in JSON zur Schlüsselverwaltung |
Sampling-Unterstützung (weniger wichtig) | ⛔ | Keine Erwähnung von Sampling-Features |
Basierend auf dem obigen ist any-chat-completions-mcp ein schlanker, fokussierter MCP-Server, ideal um generische OpenAI-kompatible Chat-APIs als Tools einzubinden. Seine Stärke liegt in Einfachheit und breiter Kompatibilität, er bietet jedoch keine Ressourcen- oder Prompt-Abstraktionen. Für Routine-LLM-Integrationen ist er robust, Power-User könnten sich mehr Features wünschen. Insgesamt würde ich diesen MCP mit 6/10 für den allgemeinen Einsatz bewerten.
Hat eine LICENSE | ✅ (MIT) |
---|---|
Mindestens ein Tool | ✅ |
Anzahl Forks | 17 |
Anzahl Sterne | 129 |
Dies ist ein MCP-Server, der FlowHunt oder jeden MCP-kompatiblen Client mit jeder OpenAI SDK-kompatiblen Chat Completion API verbindet, einschließlich Anbieter wie OpenAI, Perplexity, Groq, xAI und PyroPrompts. Er leitet chatbasierte Anfragen über ein einziges, einfaches Tool und eine Konfiguration weiter.
Vereinheitlichte LLM-Integration, schneller Anbieterwechsel, Einsatz für Desktop-KI-Agenten, LLM-Benchmarking und als sicheres API-Gateway für chatbasierte Anfragen.
Das Wechseln ist so einfach wie das Aktualisieren von Umgebungsvariablen (z.B. API-Schlüssel, Basis-URL, Modellname) in Ihrer MCP-Server-Konfiguration. Es sind keine Codeänderungen nötig – nach der Aktualisierung der Konfiguration starten Sie Ihren Client einfach neu.
Ja, API-Schlüssel werden über Umgebungsvariablen in der Konfiguration verwaltet. Dadurch bleiben Zugangsdaten außerhalb Ihres Quellcodes und die Sicherheit wird erhöht.
Ein einziges 'chat'-Tool, das chatbasierte Nachrichten an jede konfigurierte OpenAI-kompatible API-Endpoint weiterleitet.
Nein, der Server ist fokussiert und schlank für Chat Completions. Prompt-Templates oder zusätzliche Ressourcenebenen werden nicht bereitgestellt.
Vereinheitlichen Sie Ihre KI-Chat-API-Verbindungen und wechseln Sie Anbieter mühelos mit dem any-chat-completions-mcp MCP-Server. Perfekt für Entwickler, die Flexibilität und Einfachheit suchen.
Chat MCP ist eine plattformübergreifende Desktop-Chat-Anwendung, die das Model Context Protocol (MCP) nutzt, um mit verschiedenen Large Language Models (LLMs) z...
Der ModelContextProtocol (MCP) Server fungiert als Brücke zwischen KI-Agenten und externen Datenquellen, APIs und Diensten und ermöglicht FlowHunt-Nutzern den A...
Der Chatsum MCP Server ermöglicht es KI-Agenten, effizient Chatnachrichten aus der Chatdatenbank eines Nutzers abzufragen und zusammenzufassen. So werden prägna...