
any-chat-completions-mcp MCP-Server
Der any-chat-completions-mcp MCP-Server verbindet FlowHunt und andere Tools mit jeder OpenAI SDK-kompatiblen Chat Completion API. Er ermöglicht eine nahtlose In...
Ein übersichtlicher, edukativer MCP-Client zur Interaktion mit mehreren LLMs über eine einheitliche Desktop-Chat-Oberfläche – perfekt zum Lernen, Prototyping und Entwickeln.
Chat MCP ist eine Desktop-Chat-Anwendung, die das Model Context Protocol (MCP) nutzt, um mit verschiedenen Large Language Models (LLMs) zu kommunizieren. Entwickelt mit Electron für plattformübergreifende Kompatibilität, ermöglicht Chat MCP den Nutzern die Verbindung und Verwaltung mehrerer LLM-Backends und bietet eine einheitliche Oberfläche zum Testen, Interagieren und Konfigurieren verschiedener KI-Modelle. Der minimalistische Code ist darauf ausgelegt, Entwicklern und Forschenden die MCP-Grundlagen zu vermitteln, schnelles Prototyping mit verschiedenen Servern zu ermöglichen und Workflows mit LLMs zu vereinfachen. Wichtige Merkmale sind dynamische LLM-Konfiguration, Multi-Client-Verwaltung und einfache Anpassung sowohl für Desktop- als auch Web-Umgebungen.
Keine Prompt-Vorlagen sind in der verfügbaren Dokumentation oder den Repository-Dateien erwähnt.
Keine expliziten MCP-Ressourcen sind im Repository oder in den Konfigurationsbeispielen dokumentiert.
Keine spezifischen Tools werden im Repository oder in server.py
aufgeführt oder beschrieben (das Repo enthält keine server.py
oder gleichwertige Tooling-Definitionen).
Zentrale LLM-Testplattform
Chat MCP ermöglicht Entwicklern das schnelle Konfigurieren und Testen mehrerer LLM-Anbieter und -Modelle in einer einzigen Oberfläche und vereinfacht so den Evaluierungsprozess.
Plattformübergreifende KI-Chat-Anwendung
Durch die Unterstützung von Linux, macOS und Windows kann Chat MCP als Desktop-Client für die Interaktion mit KI-Modellen auf jedem wichtigen Betriebssystem genutzt werden.
Entwicklung und Debugging von MCP-Integrationen
Dank seines sauberen Codes kann Chat MCP als Referenz oder Ausgangsbasis für eigene MCP-kompatible Anwendungen verwendet werden.
Lernwerkzeug für MCP
Der minimalistische Ansatz des Projekts macht es ideal, um das Model Context Protocol kennenzulernen und mit LLM-Konnektivität zu experimentieren.
git clone https://github.com/AI-QL/chat-mcp.git
src/main/config.json
mit deinen LLM-API-Daten und MCP-Einstellungen an.npm install
npm start
Beispielkonfiguration (JSON):
{
"chatbotStore": {
"apiKey": "",
"url": "https://api.aiql.com",
"path": "/v1/chat/completions",
"model": "gpt-4o-mini",
"mcp": true
}
}
Hinweis: Sichere deine API-Schlüssel, indem du Umgebungsvariablen oder verschlüsselte Speicher nutzt (wird in der Konfiguration nicht direkt unterstützt, ist aber empfohlen).
src/main/config.json
bearbeiten mit einem Claude-kompatiblen API-Endpunkt und den Details.npm install
ausführen.npm start
starten.Beispiel-JSON:
{
"chatbotStore": {
"apiKey": "",
"url": "https://anthropic.api.endpoint",
"path": "/v1/messages",
"model": "claude-3-opus",
"mcp": true
}
}
Hinweis: Verwende Umgebungsvariablen für sensible Daten.
src/main/config.json
für das Cursor-Backend aktualisieren.Beispiel-JSON:
{
"chatbotStore": {
"apiKey": "",
"url": "https://cursor.api.endpoint",
"path": "/v1/chat/completions",
"model": "cursor-model",
"mcp": true
}
}
Hinweis: API-Schlüssel per Umgebungsvariablen setzen.
src/main/config.json
für Cline-API-Details bearbeiten.npm install
ausführen.npm start
starten.Beispiel-JSON:
{
"chatbotStore": {
"apiKey": "",
"url": "https://cline.api.endpoint",
"path": "/v1/chat/completions",
"model": "cline-model",
"mcp": true
}
}
Hinweis: API-Schlüssel mit Umgebungsvariablen sichern.
Beispiel für das Sichern von API-Schlüsseln:
{
"chatbotStore": {
"apiKey": "${API_KEY}",
"url": "https://api.example.com",
"path": "/v1/chat/completions",
"model": "your-model",
"mcp": true
}
}
Setze API_KEY
in deiner Umgebung, bevor du die App startest.
MCP in FlowHunt verwenden
Um MCP-Server in deinen FlowHunt-Workflow zu integrieren, füge zunächst die MCP-Komponente zu deinem Flow hinzu und verbinde sie mit deinem KI-Agenten:
Klicke auf die MCP-Komponente, um das Konfigurationspanel zu öffnen. Im Bereich „System MCP-Konfiguration“ trägst du die Details deines MCP-Servers in diesem JSON-Format ein:
{
"chat-mcp": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
Nach der Konfiguration kann der KI-Agent dieses MCP als Tool mit Zugriff auf alle Funktionen nutzen. Denke daran, “chat-mcp” durch den tatsächlichen Namen deines MCP-Servers zu ersetzen und die URL mit deiner eigenen MCP-Server-URL anzugeben.
Abschnitt | Verfügbar | Details/Hinweise |
---|---|---|
Übersicht | ✅ | |
Liste der Prompts | ⛔ | Keine Prompt-Vorlagen dokumentiert |
Liste der Ressourcen | ⛔ | Keine dokumentierten MCP-Ressourcen |
Liste der Tools | ⛔ | Keine Tools aufgeführt |
Sicherung von API-Schlüsseln | ✅ | Empfohlen; nicht nativ unterstützt, aber sinnvoll |
Sampling-Unterstützung (weniger wichtig) | ⛔ | Keine Erwähnung von Sampling-Unterstützung |
Nach aktuellem Stand ist Chat MCP ein einfaches, edukatives und flexibles MCP-Frontend, dem jedoch fortgeschrittene MCP-Funktionen (Tools, Ressourcen, Sampling, Roots) in der öffentlichen Dokumentation und Einrichtung fehlen. Der Hauptnutzen liegt im sauberen, leicht anpassbaren Chat-Frontend. Insgesamt ist es ein guter Ausgangspunkt für MCP-Lernen oder als Basis für weiterführende Integrationen.
Hat eine LICENSE | ✅ Apache-2.0 |
---|---|
Mindestens ein Tool | ⛔ |
Anzahl Forks | 31 |
Anzahl Sterne | 226 |
Chat MCP ist eine plattformübergreifende Desktop-Chat-App, die mit Electron entwickelt wurde. Sie verbindet sich über das Model Context Protocol (MCP) mit verschiedenen LLM-Backends und bietet eine einheitliche Oberfläche zum Prototypen, Testen und Konfigurieren von LLMs.
Chat MCP ist ideal für das Testen von LLMs, das Debugging von MCP-Integrationen, das Erlernen von MCP-Grundprinzipien sowie als saubere Referenzimplementierung oder Basis für weiterentwickelte Chattools.
Während Chat MCP standardmäßig Klartext verwendet, wird empfohlen, sensible Werte wie API-Schlüssel als Umgebungsvariablen zu setzen und in der Konfiguration darauf zu verweisen.
Nein, die öffentliche Dokumentation und der Code enthalten keine erweiterten MCP-Features wie Tools oder Ressourcen. Chat MCP konzentriert sich auf eine minimalistische, erweiterbare Chat-Oberfläche für LLMs.
Ja. Chat MCP kann als MCP-Server innerhalb von FlowHunt integriert werden, indem du die MCP-Komponente zu deinem Flow hinzufügst und sie mit den Serverdaten im JSON-Format konfigurierst. Siehe Dokumentation für die genauen Schritte.
Erkunde und interagiere mit mehreren LLMs über Chat MCP. Perfekt für das Lernen von MCP, schnelles Prototyping und einheitliche Chat-Erlebnisse.
Der any-chat-completions-mcp MCP-Server verbindet FlowHunt und andere Tools mit jeder OpenAI SDK-kompatiblen Chat Completion API. Er ermöglicht eine nahtlose In...
Der Chatsum MCP Server ermöglicht es KI-Agenten, effizient Chatnachrichten aus der Chatdatenbank eines Nutzers abzufragen und zusammenzufassen. So werden prägna...
Der Discord MCP Server verbindet KI-Assistenten mit Discord und ermöglicht automatisiertes Servermanagement, Nachrichtenautomatisierung und die Integration exte...