
Cualquier Chat Completions MCP
Integra FlowHunt con Any Chat Completions MCP para conectar Claude, OpenAI, Perplexity, Groq, xAI, PyroPrompts y más a través de una API unificada compatible co...

Conéctate fácilmente a cualquier API de chat compatible con OpenAI a través de un único servidor MCP, optimizando flujos de trabajo multi-proveedor LLM en FlowHunt y más allá.
FlowHunt proporciona una capa de seguridad adicional entre tus sistemas internos y las herramientas de IA, dándote control granular sobre qué herramientas son accesibles desde tus servidores MCP. Los servidores MCP alojados en nuestra infraestructura pueden integrarse perfectamente con el chatbot de FlowHunt, así como con plataformas de IA populares como ChatGPT, Claude y varios editores de IA.
El servidor MCP any-chat-completions-mcp actúa como un puente entre asistentes de IA y cualquier API de Chat Completion compatible con el SDK de OpenAI, como OpenAI, Perplexity, Groq, xAI y PyroPrompts. Al adherirse al Model Context Protocol (MCP), permite la integración fluida de proveedores externos de LLM en los flujos de desarrollo. Su función principal es reenviar preguntas basadas en chat a un proveedor de chat IA configurado, permitiendo a los desarrolladores utilizar varios LLM como herramientas en sus entornos preferidos. Esto facilita tareas como cambiar de proveedor o escalar el uso de LLM, fomentando la flexibilidad y eficiencia en aplicaciones potenciadas por IA.
No se mencionan plantillas de prompt en el repositorio ni en la documentación.
No se documentan recursos MCP explícitos en el repositorio ni en el README.
No se proporcionan instrucciones específicas de plataforma para Windsurf en el repositorio ni en la documentación.
npx estén instalados.claude_desktop_config.json (en MacOS: ~/Library/Application Support/Claude/claude_desktop_config.json; en Windows: %APPDATA%/Claude/claude_desktop_config.json).mcpServers.env.Ejemplo JSON:
{
"mcpServers": {
"chat-openai": {
"command": "npx",
"args": [
"@pyroprompts/any-chat-completions-mcp"
],
"env": {
"AI_CHAT_KEY": "OPENAI_KEY",
"AI_CHAT_NAME": "OpenAI",
"AI_CHAT_MODEL": "gpt-4o",
"AI_CHAT_BASE_URL": "v1/chat/completions"
}
}
}
}
Protegiendo las claves API (usando variables de entorno):
"env": {
"AI_CHAT_KEY": "YOUR_PROVIDER_KEY"
}
No se proporcionan instrucciones específicas de plataforma para Cursor en el repositorio ni en la documentación.
No se proporcionan instrucciones específicas de plataforma para Cline en el repositorio ni en la documentación.
Uso de MCP en FlowHunt
Para integrar servidores MCP en tu flujo de trabajo de FlowHunt, comienza agregando el componente MCP a tu flujo y conectándolo a tu agente IA:

Haz clic en el componente MCP para abrir el panel de configuración. En la sección de configuración del MCP del sistema, inserta los detalles de tu servidor MCP usando este formato JSON:
{
"MCP-name": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
Una vez configurado, el agente IA podrá utilizar este MCP como herramienta con acceso a todas sus funciones y capacidades. Recuerda cambiar “MCP-name” por el nombre real de tu servidor MCP (por ejemplo, “github-mcp”, “weather-api”, etc.) y reemplaza la URL por la de tu propio servidor MCP.
| Sección | Disponibilidad | Detalles/Notas |
|---|---|---|
| Descripción general | ✅ | Cubre el propósito y características en el README |
| Lista de Prompts | ⛔ | No se mencionan plantillas de prompt |
| Lista de Recursos | ⛔ | No se documentan recursos MCP explícitos |
| Lista de Herramientas | ✅ | Herramienta “chat” descrita en el README |
| Protección de claves API | ✅ | Usa “env” en JSON para la gestión de claves |
| Soporte de muestreo (menos relevante en la evaluación) | ⛔ | No se mencionan características de muestreo |
Con base en lo anterior, any-chat-completions-mcp es un servidor MCP enfocado y simplificado, ideal para agregar APIs de chat genéricas compatibles con OpenAI como herramientas. Su principal fortaleza es la simplicidad y amplia compatibilidad, aunque carece de abstracciones de recursos y prompts. Para integración rutinaria de LLM, es robusto, pero los usuarios avanzados podrían desear más funciones. En general, calificaría este MCP con un 6/10 para uso general.
| Tiene LICENSE | ✅ (MIT) |
|---|---|
| Tiene al menos una herramienta | ✅ |
| Número de Forks | 17 |
| Número de Estrellas | 129 |
Unifica tus conexiones de API de chat IA y cambia de proveedor sin esfuerzo con el servidor MCP any-chat-completions-mcp. Perfecto para desarrolladores que buscan flexibilidad y simplicidad.

Integra FlowHunt con Any Chat Completions MCP para conectar Claude, OpenAI, Perplexity, Groq, xAI, PyroPrompts y más a través de una API unificada compatible co...

Chat MCP es una aplicación de chat de escritorio multiplataforma que utiliza el Model Context Protocol (MCP) para conectarse con varios Large Language Models (L...

El Servidor Chatsum MCP permite que los agentes de IA consulten y resuman eficientemente mensajes de chat de la base de datos de chat de un usuario, proporciona...
Consentimiento de Cookies
Usamos cookies para mejorar tu experiencia de navegación y analizar nuestro tráfico. See our privacy policy.