
any-chat-completions-mcp MCP-server
any-chat-completions-mcp MCP-server kopplar samman FlowHunt och andra verktyg med valfri OpenAI SDK-kompatibel Chat Completion API. Det möjliggör sömlös integra...

En ren, pedagogisk MCP-klient för att interagera med flera LLM:er via ett enhetligt skrivbordsgränssnitt, perfekt för lärande, prototypning och utveckling.
FlowHunt erbjuder ett extra säkerhetslager mellan dina interna system och AI-verktyg, vilket ger dig granulär kontroll över vilka verktyg som är tillgängliga från dina MCP-servrar. MCP-servrar som hostas i vår infrastruktur kan sömlöst integreras med FlowHunts chatbot samt populära AI-plattformar som ChatGPT, Claude och olika AI-redigerare.
Chat MCP är en chattapplikation för skrivbordet som använder Model Context Protocol (MCP) för att ansluta till olika stora språkmodeller (LLM:er). Byggd med Electron för plattformsoberoende kompatibilitet, gör Chat MCP det möjligt för användare att ansluta till och hantera flera LLM-backends, och erbjuder ett enhetligt gränssnitt för att testa, interagera med och konfigurera olika AI-modeller. Dess minimalistiska kodbas är utformad för att hjälpa utvecklare och forskare att förstå MCP:s kärnprinciper, snabbt prototypa med olika servrar samt effektivisera arbetsflöden med LLM:er. Nyckelfunktioner inkluderar dynamisk LLM-konfiguration, hantering av flera klienter och enkel anpassning för både skrivbords- och webbmiljöer.
Inga promptmallar nämns i tillgänglig dokumentation eller repositoryfiler.
Inga explicita MCP-resurser dokumenterade i repositoryt eller konfigurationsexemplen.
Inga specifika verktyg listas eller beskrivs i repositoryt eller server.py (repo:t saknar en server.py-fil eller motsvarande verktygsdefinitioner).
Enhetlig testplattform för LLM:er
Chat MCP gör det möjligt för utvecklare att snabbt konfigurera och testa flera LLM-leverantörer och modeller i ett och samma gränssnitt, vilket effektiviserar utvärderingsprocessen.
Plattformsoberoende AI-chattapplikation
Genom stöd för Linux, macOS och Windows kan Chat MCP användas som en skrivbordsklient för att interagera med AI-modeller på alla större operativsystem.
Utveckling och felsökning av MCP-integrationer
Med sin rena kodbas kan utvecklare använda Chat MCP som referens eller startpunkt för att bygga eller felsöka egna MCP-kompatibla applikationer.
Pedagogiskt verktyg för MCP
Projektets minimalistiska upplägg gör det idealiskt för att lära sig om Model Context Protocol och experimentera med LLM-uppkoppling.
git clone https://github.com/AI-QL/chat-mcp.gitsrc/main/config.json med dina LLM API-detaljer och MCP-inställningar.npm installnpm startExempel på JSON-konfiguration:
{
"chatbotStore": {
"apiKey": "",
"url": "https://api.aiql.com",
"path": "/v1/chat/completions",
"model": "gpt-4o-mini",
"mcp": true
}
}
Obs: Skydda dina API-nycklar genom att använda miljövariabler eller krypterad lagring (stöds inte direkt i medföljande konfiguration, men rekommenderas).
src/main/config.json med Claude-kompatibel API-endpoint och detaljer.npm install.npm start.Exempel på JSON:
{
"chatbotStore": {
"apiKey": "",
"url": "https://anthropic.api.endpoint",
"path": "/v1/messages",
"model": "claude-3-opus",
"mcp": true
}
}
Obs: Använd miljövariabler för känslig information.
src/main/config.json för Cursor-backend.Exempel på JSON:
{
"chatbotStore": {
"apiKey": "",
"url": "https://cursor.api.endpoint",
"path": "/v1/chat/completions",
"model": "cursor-model",
"mcp": true
}
}
Obs: Använd miljövariabler för API-nycklar.
src/main/config.json för Clines API-detaljer.npm install.npm start.Exempel på JSON:
{
"chatbotStore": {
"apiKey": "",
"url": "https://cline.api.endpoint",
"path": "/v1/chat/completions",
"model": "cline-model",
"mcp": true
}
}
Obs: Skydda API-nycklar med miljövariabler.
Exempel på att skydda API-nycklar:
{
"chatbotStore": {
"apiKey": "${API_KEY}",
"url": "https://api.example.com",
"path": "/v1/chat/completions",
"model": "your-model",
"mcp": true
}
}
Sätt API_KEY i din miljö innan du startar appen.
Använda MCP i FlowHunt
För att integrera MCP-servrar i ditt FlowHunt-arbetsflöde börjar du med att lägga till MCP-komponenten i ditt flöde och kopplar den till din AI-agent:
Klicka på MCP-komponenten för att öppna konfigurationspanelen. I systemets MCP-konfigurationssektion, lägg in dina MCP-serveruppgifter med detta JSON-format:
{
"chat-mcp": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
När du har konfigurerat är AI-agenten nu redo att använda denna MCP som ett verktyg med tillgång till alla dess funktioner och möjligheter. Kom ihåg att ändra “chat-mcp” till det faktiska namnet på din MCP-server och ersätta URL:en med din egen MCP-serveradress.
| Avsnitt | Tillgänglighet | Detaljer/Noteringar |
|---|---|---|
| Översikt | ✅ | |
| Lista över promptar | ⛔ | Inga promptmallar dokumenterade |
| Lista över resurser | ⛔ | Inga dokumenterade MCP-resurser |
| Lista över verktyg | ⛔ | Inga verktyg listade |
| Skydda API-nycklar | ✅ | Rekommenderas; ej nativt stöd, men bör användas |
| Sampling-stöd (mindre viktigt) | ⛔ | Ingen omnämnd sampling-stöd |
Baserat på tillgänglig information är Chat MCP en enkel, pedagogisk och flexibel MCP-klient, men saknar avancerade MCP-funktioner (verktyg, resurser, sampling, roots) i sin publika dokumentation och setup. Dess främsta värde är som ett rent, modifierbart chattgränssnitt. Sammantaget är det en bra utgångspunkt för MCP-lärande eller som bas för mer avancerade integrationer.
| Har en LICENSE | ✅ Apache-2.0 |
|---|---|
| Har minst ett verktyg | ⛔ |
| Antal forkar | 31 |
| Antal stjärnor | 226 |
Chat MCP är en plattformsoberoende chattapp byggd med Electron, utformad för att ansluta till olika LLM-backends med hjälp av Model Context Protocol (MCP). Den ger ett enhetligt gränssnitt för prototypning, testning och konfiguration av LLM:er.
Chat MCP är idealisk för LLM-testning, felsökning av MCP-integrationer, inlärning av MCP-principer och fungerar som en ren referensimplementering eller bas för mer avancerade chattverktyg.
Även om Chat MCP:s standardkonfiguration använder klartext rekommenderas det att ange känsliga värden som API-nycklar som miljövariabler och referera till dem i din konfiguration.
Nej, den publika dokumentationen och kodbasen inkluderar inte avancerade MCP-funktioner såsom verktyg eller resurser. Chat MCP fokuserar på att tillhandahålla ett minimalistiskt, utbyggbart chattgränssnitt för LLM:er.
Ja. Chat MCP kan integreras som en MCP-server i FlowHunt genom att lägga till MCP-komponenten i ditt flöde och konfigurera den med serveruppgifterna i JSON-format. Se dokumentationen för exakta steg.
Utforska och interagera med flera LLM:er med Chat MCP. Perfekt för MCP-lärande, snabb prototypning och enhetliga chattupplevelser.
any-chat-completions-mcp MCP-server kopplar samman FlowHunt och andra verktyg med valfri OpenAI SDK-kompatibel Chat Completion API. Det möjliggör sömlös integra...
Chatsum MCP-servern gör det möjligt för AI-agenter att effektivt söka och sammanfatta chattmeddelanden från en användares chattdatabas, vilket ger koncisa konve...
Lspace MCP Server är en öppen källkods-backend och fristående applikation som implementerar Model Context Protocol (MCP). Den möjliggör beständig, sökbar kunska...
Cookie-samtycke
Vi använder cookies för att förbättra din surfupplevelse och analysera vår trafik. See our privacy policy.


