Serveur MCP Code Executor MCP
Exécutez du code Python, installez des dépendances et gérez des environnements isolés directement dans vos flux FlowHunt avec le serveur MCP Code Executor.

Que fait le serveur “MCP Code Executor” MCP ?
Le MCP Code Executor est un serveur MCP (Model Context Protocol) qui permet aux modèles de langage (LLM) d’exécuter du code Python au sein d’un environnement Python dédié, tel que Conda, virtualenv ou UV virtualenv. En reliant les assistants IA à de véritables environnements Python exécutables, il leur permet d’accomplir un large éventail de tâches de développement nécessitant exécution de code, gestion de bibliothèques et configuration dynamique d’environnement. Ce serveur prend en charge la génération de code incrémentale pour dépasser les limites de tokens, autorise l’installation à la volée de dépendances et facilite la configuration de l’environnement d’exécution. Les développeurs peuvent s’appuyer sur cet outil pour automatiser l’évaluation de code, expérimenter de nouveaux packages et gérer les calculs dans un environnement contrôlé et sécurisé.
Liste des prompts
Aucun modèle de prompt explicite n’est listé dans le dépôt ou la documentation.
Liste des ressources
Aucune ressource spécifique n’est décrite dans le dépôt ou la documentation.
Liste des outils
- execute_code
- Exécute du code Python dans l’environnement configuré. Adapté à l’exécution de courts extraits de code et de scripts.
- install_dependencies
- Installe les packages Python spécifiés dans l’environnement courant, permettant l’ajout dynamique de bibliothèques selon les besoins.
- check_installed_packages
- Vérifie quels packages Python sont actuellement installés dans l’environnement.
Cas d’utilisation de ce serveur MCP
- Évaluation automatisée de code
- Les LLM peuvent exécuter et tester des extraits de code Python directement, ce qui est utile dans un contexte pédagogique, de relecture ou de débogage.
- Gestion dynamique des dépendances
- Installe les packages nécessaires à la volée, permettant aux LLM d’adapter l’environnement d’exécution pour des tâches ou bibliothèques spécialisées.
- Isolement d’environnement
- Exécute le code dans des environnements Conda ou virtualenv isolés, assurant la reproductibilité et évitant les conflits de dépendances.
- Génération de code incrémentale
- Prend en charge l’exécution de code par incréments, ce qui permet de gérer de grands blocs de code pouvant dépasser les limites de tokens d’une seule réponse LLM.
- Data science et analyse
- Permet aux agents IA de réaliser de l’analyse de données, d’exécuter des simulations ou de visualiser des résultats en utilisant les bibliothèques scientifiques Python courantes.
Comment le configurer
Windsurf
- Assurez-vous que Node.js est installé.
- Clonez le dépôt MCP Code Executor et construisez le projet.
- Localisez votre fichier de configuration des serveurs MCP.
- Ajoutez le serveur MCP Code Executor en utilisant l’extrait JSON suivant :
{ "mcpServers": { "mcp-code-executor": { "command": "node", "args": [ "/path/to/mcp_code_executor/build/index.js" ], "env": { "CODE_STORAGE_DIR": "/path/to/code/storage", "ENV_TYPE": "conda", "CONDA_ENV_NAME": "your-conda-env" } } } }
- Enregistrez le fichier et redémarrez Windsurf. Vérifiez que le serveur est accessible.
Sécurisation des clés API (exemple de variables d’environnement)
{
"mcpServers": {
"mcp-code-executor": {
"env": {
"CODE_STORAGE_DIR": "/path/to/code/storage",
"ENV_TYPE": "conda",
"CONDA_ENV_NAME": "your-conda-env",
"MY_SECRET_API_KEY": "${MY_SECRET_API_KEY}"
},
"inputs": {
"apiKey": "${MY_SECRET_API_KEY}"
}
}
}
}
Claude
- Assurez-vous que Node.js est installé.
- Construisez MCP Code Executor selon les instructions du dépôt.
- Ouvrez le fichier de configuration des serveurs MCP de Claude.
- Insérez la configuration suivante :
{ "mcpServers": { "mcp-code-executor": { "command": "node", "args": [ "/path/to/mcp_code_executor/build/index.js" ], "env": { "CODE_STORAGE_DIR": "/path/to/code/storage", "ENV_TYPE": "conda", "CONDA_ENV_NAME": "your-conda-env" } } } }
- Enregistrez et redémarrez Claude. Vérifiez que le serveur est listé.
Cursor
- Installez Node.js.
- Clonez et construisez le dépôt MCP Code Executor.
- Modifiez la configuration MCP de Cursor.
- Ajoutez :
{ "mcpServers": { "mcp-code-executor": { "command": "node", "args": [ "/path/to/mcp_code_executor/build/index.js" ], "env": { "CODE_STORAGE_DIR": "/path/to/code/storage", "ENV_TYPE": "conda", "CONDA_ENV_NAME": "your-conda-env" } } } }
- Enregistrez et redémarrez Cursor. Testez en exécutant un code exemple.
Cline
- Assurez-vous que Node.js est disponible.
- Construisez MCP Code Executor selon les instructions du README.
- Localisez le fichier de configuration MCP de Cline.
- Ajoutez :
{ "mcpServers": { "mcp-code-executor": { "command": "node", "args": [ "/path/to/mcp_code_executor/build/index.js" ], "env": { "CODE_STORAGE_DIR": "/path/to/code/storage", "ENV_TYPE": "conda", "CONDA_ENV_NAME": "your-conda-env" } } } }
- Enregistrez et redémarrez Cline. Vérifiez que le serveur MCP est actif.
Remarque : Vous pouvez également utiliser Docker. Le Dockerfile fourni est testé pour le type d’environnement
venv-uv
:
{
"mcpServers": {
"mcp-code-executor": {
"command": "docker",
"args": [
"run",
"-i",
"--rm",
"mcp-code-executor"
]
}
}
}
Comment utiliser ce MCP dans vos flux
Utilisation de MCP dans FlowHunt
Pour intégrer des serveurs MCP à votre workflow FlowHunt, commencez par ajouter le composant MCP à votre flux et reliez-le à votre agent IA :

Cliquez sur le composant MCP pour ouvrir le panneau de configuration. Dans la section configuration système MCP, insérez les détails de votre serveur MCP au format JSON suivant :
{
"mcp-code-executor": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
Une fois configuré, l’agent IA pourra utiliser ce MCP comme un outil avec accès à toutes ses fonctions et capacités. Pensez à remplacer “mcp-code-executor” par le nom réel de votre serveur MCP et l’URL par celle de votre serveur MCP.
Vue d’ensemble
Section | Disponibilité | Détails/Remarques |
---|---|---|
Vue d’ensemble | ✅ | |
Liste des prompts | ⛔ | Aucun modèle de prompt trouvé |
Liste des ressources | ⛔ | Aucune ressource explicite décrite |
Liste des outils | ✅ | execute_code, install_dependencies, check_installed_packages |
Sécurisation des clés API | ✅ | Exemple fourni avec variables env |
Support du sampling (moins important ici) | ⛔ | Non spécifié |
Notre avis
Ce serveur MCP offre des fonctionnalités essentielles et robustes pour l’exécution de code avec intégration LLM, ainsi que des instructions d’installation claires et des outils adaptés. Cependant, il manque de modèles de prompt, de ressources explicites, et d’informations sur les racines ou le support du sampling. Pour un MCP focalisé sur l’exécution de code, il est très solide, obtenant une excellente note pour son utilité pratique et sa facilité d’intégration, mais il perd quelques points sur l’absence de fonctions MCP avancées et l’exhaustivité de la documentation.
Score MCP
Possède une LICENCE | ✅ (MIT) |
---|---|
Au moins un outil fourni | ✅ |
Nombre de Forks | 25 |
Nombre d’étoiles | 144 |
Questions fréquemment posées
- Qu'est-ce que le serveur MCP Code Executor MCP ?
C'est un serveur Model Context Protocol (MCP) qui permet aux modèles de langage d'exécuter du code Python dans des environnements sécurisés et isolés (comme Conda ou venv), de gérer les dépendances et de configurer les environnements d'exécution. Idéal pour l'évaluation de code, la data science, les workflows automatisés et la configuration d'environnements dynamiques avec FlowHunt.
- Quels outils ce serveur MCP fournit-il ?
Il fournit des outils pour exécuter du code Python (`execute_code`), installer des dépendances à la volée (`install_dependencies`) et vérifier les packages installés (`check_installed_packages`).
- Comment intégrer ce serveur avec FlowHunt ?
Ajoutez MCP Code Executor en tant que composant MCP dans votre flux, puis configurez-le avec l'URL de votre serveur et la méthode de transport. Cela permet à vos agents IA d'utiliser ses capacités d'exécution de code et de gestion d'environnement dans FlowHunt.
- Puis-je isoler l'exécution du code et gérer les environnements ?
Oui, le serveur prend en charge l'exécution de code dans des environnements Conda ou virtualenv isolés, assurant la reproductibilité et évitant les conflits de dépendances.
- Prend-il en charge l'exécution incrémentale pour de grands blocs de code ?
Oui, le serveur peut exécuter le code de manière incrémentale, ce qui est utile pour gérer du code dépassant les limites de tokens des LLM.
- Est-il possible d'utiliser Docker à la place de Node.js ?
Oui, vous pouvez utiliser le Dockerfile fourni et configurer le serveur MCP pour fonctionner dans un conteneur Docker pour un isolement supplémentaire.
Essayez MCP Code Executor avec FlowHunt
Renforcez vos flux avec une exécution sécurisée et automatisée de code Python. Intégrez le serveur MCP Code Executor et débloquez des workflows dynamiques pour la data science, l'automatisation et plus encore.