Chat MCP Server

Ein übersichtlicher, edukativer MCP-Client zur Interaktion mit mehreren LLMs über eine einheitliche Desktop-Chat-Oberfläche – perfekt zum Lernen, Prototyping und Entwickeln.

Chat MCP Server

Was macht der „Chat MCP“ MCP Server?

Chat MCP ist eine Desktop-Chat-Anwendung, die das Model Context Protocol (MCP) nutzt, um mit verschiedenen Large Language Models (LLMs) zu kommunizieren. Entwickelt mit Electron für plattformübergreifende Kompatibilität, ermöglicht Chat MCP den Nutzern die Verbindung und Verwaltung mehrerer LLM-Backends und bietet eine einheitliche Oberfläche zum Testen, Interagieren und Konfigurieren verschiedener KI-Modelle. Der minimalistische Code ist darauf ausgelegt, Entwicklern und Forschenden die MCP-Grundlagen zu vermitteln, schnelles Prototyping mit verschiedenen Servern zu ermöglichen und Workflows mit LLMs zu vereinfachen. Wichtige Merkmale sind dynamische LLM-Konfiguration, Multi-Client-Verwaltung und einfache Anpassung sowohl für Desktop- als auch Web-Umgebungen.

Liste der Prompts

Keine Prompt-Vorlagen sind in der verfügbaren Dokumentation oder den Repository-Dateien erwähnt.

Liste der Ressourcen

Keine expliziten MCP-Ressourcen sind im Repository oder in den Konfigurationsbeispielen dokumentiert.

Liste der Tools

Keine spezifischen Tools werden im Repository oder in server.py aufgeführt oder beschrieben (das Repo enthält keine server.py oder gleichwertige Tooling-Definitionen).

Anwendungsfälle dieses MCP Servers

  • Zentrale LLM-Testplattform
    Chat MCP ermöglicht Entwicklern das schnelle Konfigurieren und Testen mehrerer LLM-Anbieter und -Modelle in einer einzigen Oberfläche und vereinfacht so den Evaluierungsprozess.

  • Plattformübergreifende KI-Chat-Anwendung
    Durch die Unterstützung von Linux, macOS und Windows kann Chat MCP als Desktop-Client für die Interaktion mit KI-Modellen auf jedem wichtigen Betriebssystem genutzt werden.

  • Entwicklung und Debugging von MCP-Integrationen
    Dank seines sauberen Codes kann Chat MCP als Referenz oder Ausgangsbasis für eigene MCP-kompatible Anwendungen verwendet werden.

  • Lernwerkzeug für MCP
    Der minimalistische Ansatz des Projekts macht es ideal, um das Model Context Protocol kennenzulernen und mit LLM-Konnektivität zu experimentieren.

Einrichtung

Windsurf

  1. Node.js installieren: Lade Node.js von nodejs.org herunter und installiere es.
  2. Repository klonen:
    git clone https://github.com/AI-QL/chat-mcp.git
  3. Konfiguration bearbeiten:
    Passe src/main/config.json mit deinen LLM-API-Daten und MCP-Einstellungen an.
  4. Abhängigkeiten installieren:
    npm install
  5. App starten:
    npm start

Beispielkonfiguration (JSON):

{
    "chatbotStore": {
        "apiKey": "",
        "url": "https://api.aiql.com",
        "path": "/v1/chat/completions",
        "model": "gpt-4o-mini",
        "mcp": true
    }
}

Hinweis: Sichere deine API-Schlüssel, indem du Umgebungsvariablen oder verschlüsselte Speicher nutzt (wird in der Konfiguration nicht direkt unterstützt, ist aber empfohlen).

Claude

  1. Node.js installieren: Installiere Node.js von nodejs.org.
  2. Chat MCP herunterladen/klonen.
  3. src/main/config.json bearbeiten mit einem Claude-kompatiblen API-Endpunkt und den Details.
  4. npm install ausführen.
  5. Mit npm start starten.

Beispiel-JSON:

{
    "chatbotStore": {
        "apiKey": "",
        "url": "https://anthropic.api.endpoint",
        "path": "/v1/messages",
        "model": "claude-3-opus",
        "mcp": true
    }
}

Hinweis: Verwende Umgebungsvariablen für sensible Daten.

Cursor

  1. Node.js installieren.
  2. Chat MCP Repository klonen.
  3. src/main/config.json für das Cursor-Backend aktualisieren.
  4. Abhängigkeiten installieren.
  5. Anwendung starten.

Beispiel-JSON:

{
    "chatbotStore": {
        "apiKey": "",
        "url": "https://cursor.api.endpoint",
        "path": "/v1/chat/completions",
        "model": "cursor-model",
        "mcp": true
    }
}

Hinweis: API-Schlüssel per Umgebungsvariablen setzen.

Cline

  1. Node.js installieren.
  2. Repository klonen.
  3. src/main/config.json für Cline-API-Details bearbeiten.
  4. npm install ausführen.
  5. Mit npm start starten.

Beispiel-JSON:

{
    "chatbotStore": {
        "apiKey": "",
        "url": "https://cline.api.endpoint",
        "path": "/v1/chat/completions",
        "model": "cline-model",
        "mcp": true
    }
}

Hinweis: API-Schlüssel mit Umgebungsvariablen sichern.

Beispiel für das Sichern von API-Schlüsseln:

{
    "chatbotStore": {
        "apiKey": "${API_KEY}",
        "url": "https://api.example.com",
        "path": "/v1/chat/completions",
        "model": "your-model",
        "mcp": true
    }
}

Setze API_KEY in deiner Umgebung, bevor du die App startest.

Nutzung dieses MCP in Flows

MCP in FlowHunt verwenden

Um MCP-Server in deinen FlowHunt-Workflow zu integrieren, füge zunächst die MCP-Komponente zu deinem Flow hinzu und verbinde sie mit deinem KI-Agenten:

FlowHunt MCP flow

Klicke auf die MCP-Komponente, um das Konfigurationspanel zu öffnen. Im Bereich „System MCP-Konfiguration“ trägst du die Details deines MCP-Servers in diesem JSON-Format ein:

{
  "chat-mcp": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

Nach der Konfiguration kann der KI-Agent dieses MCP als Tool mit Zugriff auf alle Funktionen nutzen. Denke daran, “chat-mcp” durch den tatsächlichen Namen deines MCP-Servers zu ersetzen und die URL mit deiner eigenen MCP-Server-URL anzugeben.


Übersicht

AbschnittVerfügbarDetails/Hinweise
Übersicht
Liste der PromptsKeine Prompt-Vorlagen dokumentiert
Liste der RessourcenKeine dokumentierten MCP-Ressourcen
Liste der ToolsKeine Tools aufgeführt
Sicherung von API-SchlüsselnEmpfohlen; nicht nativ unterstützt, aber sinnvoll
Sampling-Unterstützung (weniger wichtig)Keine Erwähnung von Sampling-Unterstützung

Nach aktuellem Stand ist Chat MCP ein einfaches, edukatives und flexibles MCP-Frontend, dem jedoch fortgeschrittene MCP-Funktionen (Tools, Ressourcen, Sampling, Roots) in der öffentlichen Dokumentation und Einrichtung fehlen. Der Hauptnutzen liegt im sauberen, leicht anpassbaren Chat-Frontend. Insgesamt ist es ein guter Ausgangspunkt für MCP-Lernen oder als Basis für weiterführende Integrationen.


MCP Score

Hat eine LICENSE✅ Apache-2.0
Mindestens ein Tool
Anzahl Forks31
Anzahl Sterne226

Häufig gestellte Fragen

Was ist Chat MCP?

Chat MCP ist eine plattformübergreifende Desktop-Chat-App, die mit Electron entwickelt wurde. Sie verbindet sich über das Model Context Protocol (MCP) mit verschiedenen LLM-Backends und bietet eine einheitliche Oberfläche zum Prototypen, Testen und Konfigurieren von LLMs.

Was sind die Hauptanwendungsfälle für Chat MCP?

Chat MCP ist ideal für das Testen von LLMs, das Debugging von MCP-Integrationen, das Erlernen von MCP-Grundprinzipien sowie als saubere Referenzimplementierung oder Basis für weiterentwickelte Chattools.

Wie sichere ich meine API-Schlüssel in Chat MCP?

Während Chat MCP standardmäßig Klartext verwendet, wird empfohlen, sensible Werte wie API-Schlüssel als Umgebungsvariablen zu setzen und in der Konfiguration darauf zu verweisen.

Unterstützt Chat MCP erweiterte MCP-Features wie Tools und Ressourcen?

Nein, die öffentliche Dokumentation und der Code enthalten keine erweiterten MCP-Features wie Tools oder Ressourcen. Chat MCP konzentriert sich auf eine minimalistische, erweiterbare Chat-Oberfläche für LLMs.

Kann ich Chat MCP mit FlowHunt verwenden?

Ja. Chat MCP kann als MCP-Server innerhalb von FlowHunt integriert werden, indem du die MCP-Komponente zu deinem Flow hinzufügst und sie mit den Serverdaten im JSON-Format konfigurierst. Siehe Dokumentation für die genauen Schritte.

Teste Chat MCP mit FlowHunt

Erkunde und interagiere mit mehreren LLMs über Chat MCP. Perfekt für das Lernen von MCP, schnelles Prototyping und einheitliche Chat-Erlebnisse.

Mehr erfahren