
ModelContextProtocol (MCP) Server-integration
ModelContextProtocol (MCP) Server fungerar som en brygga mellan AI-agenter och externa datakällor, API:er och tjänster, vilket gör det möjligt för FlowHunt-anvä...
Anslut enkelt till valfri OpenAI-kompatibel chatt-API via en enda MCP-server, vilket effektiviserar arbetsflöden med flera LLM-leverantörer i FlowHunt och utanför.
any-chat-completions-mcp MCP-servern fungerar som en brygga mellan AI-assistenter och valfri OpenAI SDK-kompatibel Chat Completion API, såsom OpenAI, Perplexity, Groq, xAI och PyroPrompts. Genom att följa Model Context Protocol (MCP) möjliggör den sömlös integration av externa LLM-leverantörer i utvecklingsflöden. Dess huvudsakliga funktion är att vidarebefordra chattbaserade frågor till en konfigurerad AI-chattleverantör, vilket gör det möjligt för utvecklare att använda olika LLM:er som verktyg i sina föredragna miljöer. Detta gör uppgifter som att byta mellan leverantörer eller skala LLM-användning enkelt, vilket främjar flexibilitet och effektivitet i AI-drivna applikationer.
Inga promptmallar nämns i repot eller dokumentationen.
Inga explicita MCP-resurser är dokumenterade i repot eller README.
Inga plattformspecifika instruktioner ges för Windsurf i repot eller dokumentationen.
npx
är installerade.claude_desktop_config.json
(på MacOS: ~/Library/Application Support/Claude/claude_desktop_config.json
; på Windows: %APPDATA%/Claude/claude_desktop_config.json
).mcpServers
.env
.JSON-exempel:
{
"mcpServers": {
"chat-openai": {
"command": "npx",
"args": [
"@pyroprompts/any-chat-completions-mcp"
],
"env": {
"AI_CHAT_KEY": "OPENAI_KEY",
"AI_CHAT_NAME": "OpenAI",
"AI_CHAT_MODEL": "gpt-4o",
"AI_CHAT_BASE_URL": "v1/chat/completions"
}
}
}
}
Säkra API-nycklar (med miljövariabler):
"env": {
"AI_CHAT_KEY": "YOUR_PROVIDER_KEY"
}
Inga plattformspecifika instruktioner ges för Cursor i repot eller dokumentationen.
Inga plattformspecifika instruktioner ges för Cline i repot eller dokumentationen.
Använda MCP i FlowHunt
För att integrera MCP-servrar i ditt FlowHunt-arbetsflöde, börja med att lägga till MCP-komponenten i ditt flöde och koppla den till din AI-agent:
Klicka på MCP-komponenten för att öppna konfigurationspanelen. I systemets MCP-konfigurationsavsnitt, lägg in dina MCP-serveruppgifter med detta JSON-format:
{
"MCP-namn": {
"transport": "streamable_http",
"url": "https://dinmcpserver.example/pathtothemcp/url"
}
}
När det är konfigurerat kan AI-agenten nu använda denna MCP som ett verktyg med tillgång till alla dess funktioner och kapaciteter. Kom ihåg att ändra “MCP-namn” till det faktiska namnet på din MCP-server (t.ex. “github-mcp”, “weather-api” osv.) och ersätt URL:en med din egen MCP-server-URL.
Avsnitt | Tillgänglighet | Detaljer/Noteringar |
---|---|---|
Översikt | ✅ | Beskriver syfte och funktioner i README |
Lista över promptmallar | ⛔ | Inga promptmallar nämnda |
Lista över resurser | ⛔ | Inga explicita MCP-resurser dokumenterade |
Lista över verktyg | ✅ | “chat”-verktyget beskrivs i README |
Säkra API-nycklar | ✅ | Använder “env” i JSON för nyckelhantering |
Sampling-stöd (mindre viktigt för utvärdering) | ⛔ | Ingen nämner samplingfunktioner |
Baserat på ovanstående är any-chat-completions-mcp en fokuserad, strömlinjeformad MCP-server som är idealisk för att lägga till generiska OpenAI-kompatibla chatt-API:er som verktyg. Dess främsta styrka är enkelhet och bred kompatibilitet, även om den saknar resurs- och promptabstraktioner. För rutinmässig LLM-integration är den robust, men avancerade användare kan önska fler funktioner. Sammantaget skulle jag ge denna MCP 6/10 för allmän användning.
Har LICENSE | ✅ (MIT) |
---|---|
Har minst ett verktyg | ✅ |
Antal forks | 17 |
Antal stjärnor | 129 |
Det är en MCP-server som länkar samman FlowHunt eller annan MCP-kompatibel klient med valfri OpenAI SDK-kompatibel Chat Completion API, inklusive leverantörer som OpenAI, Perplexity, Groq, xAI och PyroPrompts. Den vidarebefordrar chattbaserade frågor via ett enda, enkelt verktyg och konfiguration.
Enhetlig LLM-integration, snabbt leverantörsbyte, driva stationära AI-agenter, benchmarka LLM:er och fungera som en säker API-gateway för chattbaserade frågor.
Att byta är så enkelt som att uppdatera miljövariabler (t.ex. API-nyckel, bas-URL, modellnamn) i din MCP-serverkonfiguration. Ingen kodändring krävs—starta bara om din klient efter att du har uppdaterat din konfig.
Ja, API-nycklar hanteras via miljövariabler i konfigurationen, vilket håller autentiseringsuppgifter utanför din kodbas för ökad säkerhet.
Ett enda 'chat'-verktyg som vidarebefordrar chattbaserade meddelanden till valfritt konfigurerat OpenAI-kompatibelt API-endpoint.
Nej, servern är fokuserad och optimerad för chattkompletteringar. Den tillhandahåller inte promptmallar eller extra resurslager.
Samla dina AI-chatt-API-anslutningar och byt leverantör smidigt med any-chat-completions-mcp MCP-servern. Perfekt för utvecklare som söker flexibilitet och enkelhet.
ModelContextProtocol (MCP) Server fungerar som en brygga mellan AI-agenter och externa datakällor, API:er och tjänster, vilket gör det möjligt för FlowHunt-anvä...
Chatsum MCP-servern gör det möjligt för AI-agenter att effektivt söka och sammanfatta chattmeddelanden från en användares chattdatabas, vilket ger koncisa konve...
Todos MCP Server är en todo-lista-applikation med öppen källkod och stöd för Model Context Protocol (MCP), vilket gör det möjligt för AI-assistenter och chattbo...