Serveur MCP any-chat-completions-mcp
Connectez-vous facilement à toute API de chat compatible OpenAI via un seul serveur MCP, rationalisant les workflows LLM multi-fournisseurs dans FlowHunt et au-delà.

Que fait le serveur MCP “any-chat-completions-mcp” ?
Le serveur MCP any-chat-completions-mcp agit comme un pont entre les assistants IA et toute API Chat Completion compatible SDK OpenAI, comme OpenAI, Perplexity, Groq, xAI ou PyroPrompts. En respectant le Model Context Protocol (MCP), il permet une intégration fluide de fournisseurs LLM externes dans les workflows de développement. Sa fonction principale est de relayer les questions conversationnelles à un fournisseur IA configuré, permettant aux développeurs d’utiliser divers LLM comme outils dans leur environnement préféré. Cela facilite le passage d’un fournisseur à l’autre ou la montée en charge de l’usage des LLM, favorisant flexibilité et efficacité dans les applications propulsées par l’IA.
Liste des prompts
Aucun modèle de prompt n’est mentionné dans le dépôt ou la documentation.
Liste des ressources
Aucune ressource MCP explicite n’est documentée dans le dépôt ou le README.
Liste des outils
- chat : Relaye une question vers un fournisseur de chat IA configuré. C’est le principal (et unique) outil exposé par le serveur, permettant aux LLM ou clients d’envoyer des requêtes conversationnelles vers n’importe quel point d’accès API compatible OpenAI.
Cas d’usage de ce serveur MCP
- Intégration LLM unifiée : Les développeurs peuvent utiliser un seul serveur MCP pour accéder à plusieurs fournisseurs LLM sans modifier leur code client, simplifiant la gestion des fournisseurs.
- Changement de fournisseur : Passez facilement d’OpenAI à PyroPrompts, Perplexity ou d’autres en modifiant simplement les variables d’environnement ; idéal pour l’optimisation des coûts ou les stratégies de repli.
- Agents IA de bureau personnalisés : Intégrez des LLM avancés basés sur le chat dans des applications desktop (ex : Claude Desktop) pour enrichir les fonctionnalités d’assistant.
- Expérimentation et Benchmark : Comparez rapidement les sorties de différents LLM de manière standardisée pour la recherche, la QA ou le développement produit.
- Passerelle API pour LLM : Sert de passerelle légère et sécurisée pour router les messages conversationnels vers diverses API LLM, centralisant la gestion des clés API et des endpoints.
Comment le configurer
Windsurf
Aucune instruction spécifique à Windsurf n’est fournie dans le dépôt ou la documentation.
Claude
- Prérequis : Assurez-vous que Node.js et
npx
sont installés. - Localiser le fichier de config : Modifiez
claude_desktop_config.json
(sur MacOS :~/Library/Application Support/Claude/claude_desktop_config.json
; sur Windows :%APPDATA%/Claude/claude_desktop_config.json
). - Ajouter le serveur MCP : Ajoutez la configuration du serveur MCP sous l’objet
mcpServers
. - Définir les variables d’environnement : Placez les clés API fournisseurs et autres infos dans l’objet
env
. - Enregistrer et redémarrer : Enregistrez le fichier et redémarrez Claude Desktop pour appliquer les changements.
Exemple de JSON :
{
"mcpServers": {
"chat-openai": {
"command": "npx",
"args": [
"@pyroprompts/any-chat-completions-mcp"
],
"env": {
"AI_CHAT_KEY": "OPENAI_KEY",
"AI_CHAT_NAME": "OpenAI",
"AI_CHAT_MODEL": "gpt-4o",
"AI_CHAT_BASE_URL": "https://api.openai.com/v1"
}
}
}
}
Sécurisation des clés API (via variables d’environnement) :
"env": {
"AI_CHAT_KEY": "VOTRE_CLÉ_FOURNISSEUR"
}
Cursor
Aucune instruction spécifique à Cursor n’est fournie dans le dépôt ou la documentation.
Cline
Aucune instruction spécifique à Cline n’est fournie dans le dépôt ou la documentation.
Comment utiliser ce MCP dans vos flux
Utilisation du MCP dans FlowHunt
Pour intégrer des serveurs MCP à votre workflow FlowHunt, commencez par ajouter le composant MCP à votre flux et reliez-le à votre agent IA :

Cliquez sur le composant MCP pour ouvrir le panneau de configuration. Dans la section configuration MCP système, insérez les détails de votre serveur MCP au format JSON suivant :
{
"Nom-MCP": {
"transport": "streamable_http",
"url": "https://votreserveurmcp.exemple/cheminduMCP/url"
}
}
Une fois configuré, l’agent IA pourra utiliser ce MCP comme outil, avec accès à toutes ses fonctions et capacités. N’oubliez pas de remplacer “Nom-MCP” par le nom réel de votre serveur MCP (par exemple “github-mcp”, “weather-api”, etc.) et d’indiquer l’URL de votre propre serveur MCP.
Aperçu
Section | Disponibilité | Détails/Notes |
---|---|---|
Aperçu | ✅ | But et fonctionnalités couverts dans le README |
Liste des prompts | ⛔ | Aucun modèle de prompt mentionné |
Liste des ressources | ⛔ | Aucune ressource MCP explicite documentée |
Liste des outils | ✅ | Outil “chat” décrit dans le README |
Sécurisation des clés API | ✅ | Utilise “env” dans le JSON pour la gestion des clés |
Support du sampling (moins important ici) | ⛔ | Aucune mention de fonctionnalités de sampling |
Sur la base de ce qui précède, any-chat-completions-mcp est un serveur MCP ciblé et épuré, idéal pour ajouter des APIs de chat compatibles OpenAI comme outils. Sa principale force réside dans la simplicité et la large compatibilité, même s’il ne propose ni abstraction ressource ni modèles de prompt. Pour une intégration LLM de routine, il est robuste, mais les utilisateurs avancés pourraient vouloir plus de fonctionnalités. Globalement, j’attribue à ce MCP la note de 6/10 pour un usage généraliste.
Score MCP
Dispose d’une LICENSE | ✅ (MIT) |
---|---|
Au moins un outil | ✅ |
Nombre de Forks | 17 |
Nombre d’étoiles | 129 |
Questions fréquemment posées
- Qu'est-ce que any-chat-completions-mcp ?
C'est un serveur MCP qui fait le lien entre FlowHunt ou tout client compatible MCP et toute API Chat Completion compatible avec le SDK OpenAI, incluant des fournisseurs comme OpenAI, Perplexity, Groq, xAI et PyroPrompts. Il achemine les requêtes conversationnelles via un outil et une configuration simples et uniques.
- Quels sont les principaux cas d'usage de ce serveur MCP ?
Intégration LLM unifiée, changement rapide de fournisseur, alimentation d'agents IA de bureau, benchmark de LLM, et utilisation comme passerelle API sécurisée pour les requêtes conversationnelles.
- Comment changer de fournisseur LLM ?
Changer de fournisseur est aussi simple qu'actualiser les variables d'environnement (par exemple, clé API, URL de base, nom du modèle) dans la configuration de votre serveur MCP. Aucun changement de code n'est requis — il suffit de redémarrer votre client après modification du fichier de configuration.
- Ce serveur est-il sécurisé pour la gestion des clés API ?
Oui, les clés API sont gérées via des variables d'environnement dans la configuration, ce qui garde les identifiants hors de votre code source pour une meilleure sécurité.
- Quel est l'outil principal fourni par ce serveur MCP ?
Un seul outil 'chat' qui relaie les messages conversationnels vers n'importe quel point d'accès API compatible OpenAI configuré.
- Supporte-t-il les modèles de prompt ou les abstractions de ressources ?
Non, le serveur est focalisé et optimisé pour les complétions de chat. Il ne fournit pas de modèles de prompt ni de couches de ressources supplémentaires.
Intégrez any-chat-completions-mcp dans FlowHunt
Unifiez vos connexions API de chat IA et changez de fournisseur sans effort avec le serveur MCP any-chat-completions-mcp. Parfait pour les développeurs en quête de flexibilité et de simplicité.