Servidor MCP Code Executor MCP
Execute código Python, instale dependências e gerencie ambientes isolados diretamente em seus fluxos FlowHunt com o MCP Code Executor MCP Server.

O que faz o servidor MCP Code Executor?
O MCP Code Executor é um servidor MCP (Model Context Protocol) que permite que modelos de linguagem (LLMs) executem código Python em um ambiente Python designado, como Conda, virtualenv ou UV virtualenv. Ao conectar assistentes de IA a ambientes Python reais e executáveis, capacita-os a realizar uma ampla gama de tarefas de desenvolvimento que exigem execução de código, gerenciamento de bibliotecas e configuração dinâmica de ambientes. Este servidor suporta geração incremental de código para superar limitações de tokens, permite instalação de dependências sob demanda e facilita a configuração do ambiente de execução em tempo de execução. Desenvolvedores podem aproveitar esta ferramenta para automatizar avaliação de código, experimentar novos pacotes e gerenciar computação em um ambiente controlado e seguro.
Lista de Prompts
Não há templates de prompt explícitos listados no repositório ou documentação.
Lista de Recursos
Não há recursos específicos descritos no repositório ou documentação.
Lista de Ferramentas
- execute_code
- Executa código Python no ambiente configurado. Adequado para rodar trechos curtos de código e scripts.
- install_dependencies
- Instala pacotes Python especificados no ambiente atual, permitindo inclusão dinâmica de bibliotecas conforme necessário.
- check_installed_packages
- Verifica quais pacotes Python estão atualmente instalados no ambiente.
Casos de Uso deste Servidor MCP
- Avaliação Automática de Código
- LLMs podem executar e testar trechos de código Python diretamente, útil em contextos educacionais, de revisão ou depuração.
- Gerenciamento Dinâmico de Dependências
- Instala pacotes necessários sob demanda, permitindo que LLMs adaptem o ambiente de execução para tarefas ou bibliotecas especializadas.
- Isolamento de Ambiente
- Executa código em ambientes isolados Conda ou virtualenv, garantindo reprodutibilidade e evitando conflitos entre dependências.
- Geração Incremental de Código
- Suporta execução incremental de código, possibilitando lidar com grandes blocos de código que podem exceder o limite de tokens em uma única resposta do LLM.
- Ciência de Dados e Análise
- Permite que agentes de IA realizem análise de dados, rodem simulações ou visualizem resultados executando código com bibliotecas científicas Python comuns.
Como configurar
Windsurf
- Certifique-se de que o Node.js está instalado.
- Clone o repositório MCP Code Executor e construa o projeto.
- Localize o arquivo de configuração dos seus servidores MCP.
- Adicione o servidor MCP Code Executor usando o seguinte trecho de JSON:
{ "mcpServers": { "mcp-code-executor": { "command": "node", "args": [ "/path/to/mcp_code_executor/build/index.js" ], "env": { "CODE_STORAGE_DIR": "/path/to/code/storage", "ENV_TYPE": "conda", "CONDA_ENV_NAME": "your-conda-env" } } } }
- Salve o arquivo e reinicie o Windsurf. Verifique se o servidor está acessível.
Protegendo Chaves de API (Exemplo com Variáveis de Ambiente)
{
"mcpServers": {
"mcp-code-executor": {
"env": {
"CODE_STORAGE_DIR": "/path/to/code/storage",
"ENV_TYPE": "conda",
"CONDA_ENV_NAME": "your-conda-env",
"MY_SECRET_API_KEY": "${MY_SECRET_API_KEY}"
},
"inputs": {
"apiKey": "${MY_SECRET_API_KEY}"
}
}
}
}
Claude
- Certifique-se de que o Node.js está instalado.
- Construa o MCP Code Executor seguindo as instruções do repositório.
- Abra o arquivo de configuração dos servidores MCP do Claude.
- Insira a seguinte configuração:
{ "mcpServers": { "mcp-code-executor": { "command": "node", "args": [ "/path/to/mcp_code_executor/build/index.js" ], "env": { "CODE_STORAGE_DIR": "/path/to/code/storage", "ENV_TYPE": "conda", "CONDA_ENV_NAME": "your-conda-env" } } } }
- Salve e reinicie o Claude. Confirme que o servidor está listado.
Cursor
- Instale o Node.js.
- Clone e construa o repositório MCP Code Executor.
- Edite a configuração MCP do Cursor.
- Adicione:
{ "mcpServers": { "mcp-code-executor": { "command": "node", "args": [ "/path/to/mcp_code_executor/build/index.js" ], "env": { "CODE_STORAGE_DIR": "/path/to/code/storage", "ENV_TYPE": "conda", "CONDA_ENV_NAME": "your-conda-env" } } } }
- Salve e reinicie o Cursor. Teste executando um código de exemplo.
Cline
- Certifique-se de que o Node.js está disponível.
- Construa o MCP Code Executor usando as instruções do README.
- Localize o arquivo de configuração MCP do Cline.
- Adicione:
{ "mcpServers": { "mcp-code-executor": { "command": "node", "args": [ "/path/to/mcp_code_executor/build/index.js" ], "env": { "CODE_STORAGE_DIR": "/path/to/code/storage", "ENV_TYPE": "conda", "CONDA_ENV_NAME": "your-conda-env" } } } }
- Salve e reinicie o Cline. Verifique se o servidor MCP está ativo.
Nota: Você também pode usar Docker. O Dockerfile fornecido é testado para o tipo de ambiente
venv-uv
:
{
"mcpServers": {
"mcp-code-executor": {
"command": "docker",
"args": [
"run",
"-i",
"--rm",
"mcp-code-executor"
]
}
}
}
Como usar este MCP em fluxos
Usando MCP no FlowHunt
Para integrar servidores MCP ao seu workflow no FlowHunt, comece adicionando o componente MCP ao seu fluxo e conectando-o ao seu agente de IA:

Clique no componente MCP para abrir o painel de configuração. Na seção de configuração do sistema MCP, insira os detalhes do seu servidor MCP usando este formato JSON:
{
"mcp-code-executor": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
Uma vez configurado, o agente de IA poderá utilizar este MCP como ferramenta, com acesso a todas as suas funções e capacidades. Lembre-se de alterar “mcp-code-executor” para o nome real do seu servidor MCP e substituir a URL pela URL do seu próprio servidor MCP.
Visão geral
Seção | Disponibilidade | Detalhes/Observações |
---|---|---|
Visão geral | ✅ | |
Lista de Prompts | ⛔ | Nenhum template de prompt encontrado |
Lista de Recursos | ⛔ | Nenhum recurso explícito descrito |
Lista de Ferramentas | ✅ | execute_code, install_dependencies, check_installed_packages |
Proteção de Chaves de API | ✅ | Exemplo fornecido com env inputs |
Suporte a Sampling (menos relevante na avaliação) | ⛔ | Não especificado |
Nossa opinião
Este servidor MCP oferece funcionalidades essenciais e robustas para execução de código com integração LLM, além de instruções de configuração claras e ferramentas. No entanto, faltam templates de prompt, recursos explícitos e informações sobre roots ou suporte a sampling. Para um MCP focado em execução de código, é muito sólido, pontuando alto em utilidade prática e facilidade de integração, mas perde alguns pontos pela ausência de recursos MCP avançados e completude de documentação.
Pontuação MCP
Possui uma LICENSE | ✅ (MIT) |
---|---|
Possui pelo menos uma ferramenta | ✅ |
Número de Forks | 25 |
Número de Stars | 144 |
Perguntas frequentes
- O que é o MCP Code Executor MCP Server?
É um servidor Model Context Protocol (MCP) que permite que modelos de linguagem executem código Python em ambientes seguros e isolados (como Conda ou venv), gerenciem dependências e configurem ambientes de execução. Ideal para avaliação de código, ciência de dados, workflows automatizados e configuração dinâmica de ambientes com FlowHunt.
- Quais ferramentas este servidor MCP oferece?
Ele fornece ferramentas para executar código Python (`execute_code`), instalar dependências sob demanda (`install_dependencies`) e verificar pacotes instalados (`check_installed_packages`).
- Como integrar este servidor ao FlowHunt?
Adicione o MCP Code Executor como um componente MCP no seu fluxo e, em seguida, configure-o com a URL do seu servidor e o método de transporte. Isso permite que seus agentes de IA usem as capacidades de execução de código e gerenciamento de ambiente dentro do FlowHunt.
- Posso isolar a execução de código e gerenciar ambientes?
Sim, o servidor suporta execução de código em ambientes isolados Conda ou virtualenv, garantindo reprodutibilidade e evitando conflitos entre dependências.
- Ele suporta execução incremental de código para blocos grandes?
Sim, o servidor pode executar código de forma incremental, o que é útil para lidar com códigos que excedem os limites de tokens do LLM.
- É possível usar Docker em vez de Node.js?
Sim, você pode usar o Dockerfile fornecido e configurar o servidor MCP para rodar dentro de um container Docker para isolamento adicional.
Experimente o MCP Code Executor com o FlowHunt
Potencialize seus fluxos com execução de código Python segura e automatizada. Integre o MCP Code Executor MCP Server e desbloqueie workflows dinâmicos para ciência de dados, automação e muito mais.