
Servidor Chat MCP
Chat MCP es una aplicación de chat de escritorio multiplataforma que utiliza el Model Context Protocol (MCP) para conectarse con varios Large Language Models (L...
Conéctate fácilmente a cualquier API de chat compatible con OpenAI a través de un único servidor MCP, optimizando flujos de trabajo multi-proveedor LLM en FlowHunt y más allá.
El servidor MCP any-chat-completions-mcp actúa como un puente entre asistentes de IA y cualquier API de Chat Completion compatible con el SDK de OpenAI, como OpenAI, Perplexity, Groq, xAI y PyroPrompts. Al adherirse al Model Context Protocol (MCP), permite la integración fluida de proveedores externos de LLM en los flujos de desarrollo. Su función principal es reenviar preguntas basadas en chat a un proveedor de chat IA configurado, permitiendo a los desarrolladores utilizar varios LLM como herramientas en sus entornos preferidos. Esto facilita tareas como cambiar de proveedor o escalar el uso de LLM, fomentando la flexibilidad y eficiencia en aplicaciones potenciadas por IA.
No se mencionan plantillas de prompt en el repositorio ni en la documentación.
No se documentan recursos MCP explícitos en el repositorio ni en el README.
No se proporcionan instrucciones específicas de plataforma para Windsurf en el repositorio ni en la documentación.
npx
estén instalados.claude_desktop_config.json
(en MacOS: ~/Library/Application Support/Claude/claude_desktop_config.json
; en Windows: %APPDATA%/Claude/claude_desktop_config.json
).mcpServers
.env
.Ejemplo JSON:
{
"mcpServers": {
"chat-openai": {
"command": "npx",
"args": [
"@pyroprompts/any-chat-completions-mcp"
],
"env": {
"AI_CHAT_KEY": "OPENAI_KEY",
"AI_CHAT_NAME": "OpenAI",
"AI_CHAT_MODEL": "gpt-4o",
"AI_CHAT_BASE_URL": "v1/chat/completions"
}
}
}
}
Protegiendo las claves API (usando variables de entorno):
"env": {
"AI_CHAT_KEY": "YOUR_PROVIDER_KEY"
}
No se proporcionan instrucciones específicas de plataforma para Cursor en el repositorio ni en la documentación.
No se proporcionan instrucciones específicas de plataforma para Cline en el repositorio ni en la documentación.
Uso de MCP en FlowHunt
Para integrar servidores MCP en tu flujo de trabajo de FlowHunt, comienza agregando el componente MCP a tu flujo y conectándolo a tu agente IA:
Haz clic en el componente MCP para abrir el panel de configuración. En la sección de configuración del MCP del sistema, inserta los detalles de tu servidor MCP usando este formato JSON:
{
"MCP-name": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
Una vez configurado, el agente IA podrá utilizar este MCP como herramienta con acceso a todas sus funciones y capacidades. Recuerda cambiar “MCP-name” por el nombre real de tu servidor MCP (por ejemplo, “github-mcp”, “weather-api”, etc.) y reemplaza la URL por la de tu propio servidor MCP.
Sección | Disponibilidad | Detalles/Notas |
---|---|---|
Descripción general | ✅ | Cubre el propósito y características en el README |
Lista de Prompts | ⛔ | No se mencionan plantillas de prompt |
Lista de Recursos | ⛔ | No se documentan recursos MCP explícitos |
Lista de Herramientas | ✅ | Herramienta “chat” descrita en el README |
Protección de claves API | ✅ | Usa “env” en JSON para la gestión de claves |
Soporte de muestreo (menos relevante en la evaluación) | ⛔ | No se mencionan características de muestreo |
Con base en lo anterior, any-chat-completions-mcp es un servidor MCP enfocado y simplificado, ideal para agregar APIs de chat genéricas compatibles con OpenAI como herramientas. Su principal fortaleza es la simplicidad y amplia compatibilidad, aunque carece de abstracciones de recursos y prompts. Para integración rutinaria de LLM, es robusto, pero los usuarios avanzados podrían desear más funciones. En general, calificaría este MCP con un 6/10 para uso general.
Tiene LICENSE | ✅ (MIT) |
---|---|
Tiene al menos una herramienta | ✅ |
Número de Forks | 17 |
Número de Estrellas | 129 |
Es un servidor MCP que conecta FlowHunt o cualquier cliente compatible con MCP con cualquier API de Chat Completion compatible con el SDK de OpenAI, incluyendo proveedores como OpenAI, Perplexity, Groq, xAI y PyroPrompts. Redirige consultas basadas en chat mediante una única herramienta y configuración sencilla.
Integración unificada de LLM, cambio rápido de proveedor, potenciar agentes de IA de escritorio, evaluación comparativa de LLM y funcionar como gateway seguro de API para consultas basadas en chat.
Cambiar es tan sencillo como actualizar las variables de entorno (por ejemplo, clave de API, URL base, nombre del modelo) en la configuración de tu servidor MCP. No se requieren cambios de código: solo reinicia tu cliente después de actualizar tu configuración.
Sí, las claves API se gestionan mediante variables de entorno en la configuración, manteniendo las credenciales fuera del código para mayor seguridad.
Una única herramienta 'chat' que reenvía mensajes basados en chat a cualquier endpoint de API compatible con OpenAI configurado.
No, el servidor está enfocado y optimizado para chat completions. No ofrece plantillas de prompt ni capas adicionales de recursos.
Unifica tus conexiones de API de chat IA y cambia de proveedor sin esfuerzo con el servidor MCP any-chat-completions-mcp. Perfecto para desarrolladores que buscan flexibilidad y simplicidad.
Chat MCP es una aplicación de chat de escritorio multiplataforma que utiliza el Model Context Protocol (MCP) para conectarse con varios Large Language Models (L...
El Servidor Chatsum MCP permite que los agentes de IA consulten y resuman eficientemente mensajes de chat de la base de datos de chat de un usuario, proporciona...
El Todos MCP Server es una aplicación de lista de tareas de código abierto con soporte para Model Context Protocol (MCP), lo que permite a asistentes de IA y ch...