any-chat-completions-mcp MCP-server

any-chat-completions-mcp MCP-server

Anslut enkelt till valfri OpenAI-kompatibel chatt-API via en enda MCP-server, vilket effektiviserar arbetsflöden med flera LLM-leverantörer i FlowHunt och utanför.

Vad gör “any-chat-completions-mcp” MCP-servern?

any-chat-completions-mcp MCP-servern fungerar som en brygga mellan AI-assistenter och valfri OpenAI SDK-kompatibel Chat Completion API, såsom OpenAI, Perplexity, Groq, xAI och PyroPrompts. Genom att följa Model Context Protocol (MCP) möjliggör den sömlös integration av externa LLM-leverantörer i utvecklingsflöden. Dess huvudsakliga funktion är att vidarebefordra chattbaserade frågor till en konfigurerad AI-chattleverantör, vilket gör det möjligt för utvecklare att använda olika LLM:er som verktyg i sina föredragna miljöer. Detta gör uppgifter som att byta mellan leverantörer eller skala LLM-användning enkelt, vilket främjar flexibilitet och effektivitet i AI-drivna applikationer.

Lista över promptmallar

Inga promptmallar nämns i repot eller dokumentationen.

Lista över resurser

Inga explicita MCP-resurser är dokumenterade i repot eller README.

Lista över verktyg

  • chat: Vidarebefordrar en fråga till en konfigurerad AI-chattleverantör. Detta är serverns huvudsakliga (och enda) verktyg, som gör det möjligt för LLM:er eller klienter att skicka chattbaserade frågor till valfri OpenAI-kompatibel API-endpoint.

Användningsområden för denna MCP-server

  • Enhetlig LLM-integration: Utvecklare kan använda en enda MCP-server för att komma åt flera LLM-leverantörer utan att ändra sin klientkod, vilket förenklar leverantörshantering.
  • Leverantörsbyte: Byt enkelt mellan OpenAI, PyroPrompts, Perplexity och andra genom att uppdatera miljövariabler, användbart för kostnadsoptimering eller fallback-strategier.
  • Skräddarsydda stationära AI-agenter: Integrera avancerade chattbaserade LLM:er i stationära applikationer (t.ex. Claude Desktop) för att driva förbättrade assistentfunktioner.
  • Experimentering och benchmarking: Jämför snabbt resultat från olika LLM:er på ett standardiserat sätt för forskning, QA eller produktutveckling.
  • API-gateway för LLM:er: Fungerar som en lättviktig gateway för att säkert vidarebefordra chattmeddelanden till olika LLM-API:er, och centraliserar hantering av API-nycklar och endpoints.

Hur ställer man in det

Windsurf

Inga plattformspecifika instruktioner ges för Windsurf i repot eller dokumentationen.

Claude

  1. Förutsättning: Kontrollera att Node.js och npx är installerade.
  2. Leta upp konfigurationsfil: Redigera claude_desktop_config.json (på MacOS: ~/Library/Application Support/Claude/claude_desktop_config.json; på Windows: %APPDATA%/Claude/claude_desktop_config.json).
  3. Lägg till MCP-server: Lägg till MCP-serverkonfigurationen under objektet mcpServers.
  4. Ange miljövariabler: Placera leverantörens API-nycklar och annan info i objektet env.
  5. Spara och starta om: Spara filen och starta om Claude Desktop för att tillämpa ändringarna.

JSON-exempel:

{
  "mcpServers": {
    "chat-openai": {
      "command": "npx",
      "args": [
        "@pyroprompts/any-chat-completions-mcp"
      ],
      "env": {
        "AI_CHAT_KEY": "OPENAI_KEY",
        "AI_CHAT_NAME": "OpenAI",
        "AI_CHAT_MODEL": "gpt-4o",
        "AI_CHAT_BASE_URL": "v1/chat/completions"
      }
    }
  }
}

Säkra API-nycklar (med miljövariabler):

"env": {
  "AI_CHAT_KEY": "YOUR_PROVIDER_KEY"
}

Cursor

Inga plattformspecifika instruktioner ges för Cursor i repot eller dokumentationen.

Cline

Inga plattformspecifika instruktioner ges för Cline i repot eller dokumentationen.

Hur man använder denna MCP i flöden

Använda MCP i FlowHunt

För att integrera MCP-servrar i ditt FlowHunt-arbetsflöde, börja med att lägga till MCP-komponenten i ditt flöde och koppla den till din AI-agent:

FlowHunt MCP-flöde

Klicka på MCP-komponenten för att öppna konfigurationspanelen. I systemets MCP-konfigurationsavsnitt, lägg in dina MCP-serveruppgifter med detta JSON-format:

{
  "MCP-namn": {
    "transport": "streamable_http",
    "url": "https://dinmcpserver.example/pathtothemcp/url"
  }
}

När det är konfigurerat kan AI-agenten nu använda denna MCP som ett verktyg med tillgång till alla dess funktioner och kapaciteter. Kom ihåg att ändra “MCP-namn” till det faktiska namnet på din MCP-server (t.ex. “github-mcp”, “weather-api” osv.) och ersätt URL:en med din egen MCP-server-URL.


Översikt

AvsnittTillgänglighetDetaljer/Noteringar
ÖversiktBeskriver syfte och funktioner i README
Lista över promptmallarInga promptmallar nämnda
Lista över resurserInga explicita MCP-resurser dokumenterade
Lista över verktyg“chat”-verktyget beskrivs i README
Säkra API-nycklarAnvänder “env” i JSON för nyckelhantering
Sampling-stöd (mindre viktigt för utvärdering)Ingen nämner samplingfunktioner

Baserat på ovanstående är any-chat-completions-mcp en fokuserad, strömlinjeformad MCP-server som är idealisk för att lägga till generiska OpenAI-kompatibla chatt-API:er som verktyg. Dess främsta styrka är enkelhet och bred kompatibilitet, även om den saknar resurs- och promptabstraktioner. För rutinmässig LLM-integration är den robust, men avancerade användare kan önska fler funktioner. Sammantaget skulle jag ge denna MCP 6/10 för allmän användning.


MCP-betyg

Har LICENSE✅ (MIT)
Har minst ett verktyg
Antal forks17
Antal stjärnor129

Vanliga frågor

Vad är any-chat-completions-mcp?

Det är en MCP-server som länkar samman FlowHunt eller annan MCP-kompatibel klient med valfri OpenAI SDK-kompatibel Chat Completion API, inklusive leverantörer som OpenAI, Perplexity, Groq, xAI och PyroPrompts. Den vidarebefordrar chattbaserade frågor via ett enda, enkelt verktyg och konfiguration.

Vilka är de främsta användningsområdena för denna MCP-server?

Enhetlig LLM-integration, snabbt leverantörsbyte, driva stationära AI-agenter, benchmarka LLM:er och fungera som en säker API-gateway för chattbaserade frågor.

Hur byter jag mellan LLM-leverantörer?

Att byta är så enkelt som att uppdatera miljövariabler (t.ex. API-nyckel, bas-URL, modellnamn) i din MCP-serverkonfiguration. Ingen kodändring krävs—starta bara om din klient efter att du har uppdaterat din konfig.

Är denna server säker för hantering av API-nycklar?

Ja, API-nycklar hanteras via miljövariabler i konfigurationen, vilket håller autentiseringsuppgifter utanför din kodbas för ökad säkerhet.

Vilket är det huvudsakliga verktyget som tillhandahålls av denna MCP-server?

Ett enda 'chat'-verktyg som vidarebefordrar chattbaserade meddelanden till valfritt konfigurerat OpenAI-kompatibelt API-endpoint.

Stöder den promptmallar eller resursabstraktioner?

Nej, servern är fokuserad och optimerad för chattkompletteringar. Den tillhandahåller inte promptmallar eller extra resurslager.

Integrera any-chat-completions-mcp i FlowHunt

Samla dina AI-chatt-API-anslutningar och byt leverantör smidigt med any-chat-completions-mcp MCP-servern. Perfekt för utvecklare som söker flexibilitet och enkelhet.

Lär dig mer

ModelContextProtocol (MCP) Server-integration
ModelContextProtocol (MCP) Server-integration

ModelContextProtocol (MCP) Server-integration

ModelContextProtocol (MCP) Server fungerar som en brygga mellan AI-agenter och externa datakällor, API:er och tjänster, vilket gör det möjligt för FlowHunt-anvä...

3 min läsning
AI Integration +4
Chatsum MCP Server
Chatsum MCP Server

Chatsum MCP Server

Chatsum MCP-servern gör det möjligt för AI-agenter att effektivt söka och sammanfatta chattmeddelanden från en användares chattdatabas, vilket ger koncisa konve...

3 min läsning
AI MCP Server +4
Todos MCP Server
Todos MCP Server

Todos MCP Server

Todos MCP Server är en todo-lista-applikation med öppen källkod och stöd för Model Context Protocol (MCP), vilket gör det möjligt för AI-assistenter och chattbo...

4 min läsning
AI MCP +5