MCP 代码执行器 MCP 服务器

MCP 代码执行器 MCP 服务器

在 FlowHunt 流程中,借助 MCP 代码执行器 MCP 服务器直接运行 Python 代码、安装依赖并管理隔离环境。

“MCP 代码执行器” MCP 服务器有什么作用?

MCP 代码执行器是一款 MCP(模型上下文协议)服务器,使语言模型(LLM)能够在指定的 Python 环境(如 Conda、virtualenv 或 UV virtualenv)中执行 Python 代码。通过将 AI 助手连接到真实可执行的 Python 环境,赋予其执行代码、管理库、动态配置环境等多种开发能力。该服务器支持增量代码生成以突破 token 限制,允许实时安装依赖,并便于运行时配置执行环境。开发者可借助此工具自动化代码评估、试验新包,并在可控安全的环境中管理计算任务。

指令模板列表

仓库或文档中未列出明确的指令模板。

资源列表

仓库或文档中未描述具体资源。

工具列表

  • execute_code
    • 在配置的环境中执行 Python 代码,适合运行简短代码片段和脚本。
  • install_dependencies
    • 在当前环境中安装指定的 Python 包,实现库的动态按需加载。
  • check_installed_packages
    • 检查当前环境中已安装的 Python 包。

本服务器的应用场景

  • 自动化代码评估
    • LLM 可直接执行和测试 Python 代码片段,适用于教育、评审或调试场景。
  • 动态依赖管理
    • 动态安装所需包,使 LLM 能根据任务或特殊库实时调整执行环境。
  • 环境隔离
    • 在隔离的 Conda 或 virtualenv 环境中运行代码,确保结果可复现且依赖无冲突。
  • 增量代码生成
    • 支持代码增量执行,可处理单次 LLM 回复超出 token 限制的大块代码。
  • 数据科学与分析
    • AI 代理可通过常用科学计算库进行数据分析、模拟或结果可视化。

配置方法

Windsurf

  1. 确保已安装 Node.js。
  2. 克隆 MCP 代码执行器仓库并构建项目。
  3. 找到您的 MCP 服务器配置文件。
  4. 使用如下 JSON 片段添加 MCP 代码执行器服务器:
    {
      "mcpServers": {
        "mcp-code-executor": {
          "command": "node",
          "args": [
            "/path/to/mcp_code_executor/build/index.js"
          ],
          "env": {
            "CODE_STORAGE_DIR": "/path/to/code/storage",
            "ENV_TYPE": "conda",
            "CONDA_ENV_NAME": "your-conda-env"
          }
        }
      }
    }
    
  5. 保存文件并重启 Windsurf,确认服务器可访问。

API 密钥安全(环境变量示例)

{
  "mcpServers": {
    "mcp-code-executor": {
      "env": {
        "CODE_STORAGE_DIR": "/path/to/code/storage",
        "ENV_TYPE": "conda",
        "CONDA_ENV_NAME": "your-conda-env",
        "MY_SECRET_API_KEY": "${MY_SECRET_API_KEY}"
      },
      "inputs": {
        "apiKey": "${MY_SECRET_API_KEY}"
      }
    }
  }
}

Claude

  1. 确保已安装 Node.js。
  2. 按仓库说明构建 MCP 代码执行器。
  3. 打开 Claude 的 MCP 服务器配置文件。
  4. 插入以下配置:
    {
      "mcpServers": {
        "mcp-code-executor": {
          "command": "node",
          "args": [
            "/path/to/mcp_code_executor/build/index.js"
          ],
          "env": {
            "CODE_STORAGE_DIR": "/path/to/code/storage",
            "ENV_TYPE": "conda",
            "CONDA_ENV_NAME": "your-conda-env"
          }
        }
      }
    }
    
  5. 保存并重启 Claude,确认服务器已列出。

Cursor

  1. 安装 Node.js。
  2. 克隆并构建 MCP 代码执行器仓库。
  3. 编辑 Cursor 的 MCP 配置。
  4. 添加如下内容:
    {
      "mcpServers": {
        "mcp-code-executor": {
          "command": "node",
          "args": [
            "/path/to/mcp_code_executor/build/index.js"
          ],
          "env": {
            "CODE_STORAGE_DIR": "/path/to/code/storage",
            "ENV_TYPE": "conda",
            "CONDA_ENV_NAME": "your-conda-env"
          }
        }
      }
    }
    
  5. 保存并重启 Cursor,通过运行示例代码测试。

Cline

  1. 确保 Node.js 可用。
  2. 按 README 说明构建 MCP 代码执行器。
  3. 找到 Cline 的 MCP 服务器配置文件。
  4. 添加如下内容:
    {
      "mcpServers": {
        "mcp-code-executor": {
          "command": "node",
          "args": [
            "/path/to/mcp_code_executor/build/index.js"
          ],
          "env": {
            "CODE_STORAGE_DIR": "/path/to/code/storage",
            "ENV_TYPE": "conda",
            "CONDA_ENV_NAME": "your-conda-env"
          }
        }
      }
    }
    
  5. 保存并重启 Cline,确认 MCP 服务器已激活。

注意: 也可以使用 Docker。提供的 Dockerfile 已针对 venv-uv 环境类型测试:

{
  "mcpServers": {
    "mcp-code-executor": {
      "command": "docker",
      "args": [
        "run",
        "-i",
        "--rm",
        "mcp-code-executor"
      ]
    }
  }
}

如何在流程中使用此 MCP

在 FlowHunt 中集成 MCP

要将 MCP 服务器集成到 FlowHunt 工作流,请首先将 MCP 组件添加到流程并连接到您的 AI 代理:

FlowHunt MCP 流程

点击 MCP 组件打开配置面板。在系统 MCP 配置部分,按如下 JSON 格式插入您的 MCP 服务器信息:

{
  "mcp-code-executor": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

配置完成后,AI 代理即可将此 MCP 作为工具,使用其全部功能。请记得将 “mcp-code-executor” 替换为实际的 MCP 服务器名称,并将 URL 替换为您自己的 MCP 服务器地址。


概览

部分可用性详情/备注
概览
指令模板列表未找到指令模板
资源列表未描述具体资源
工具列表execute_code, install_dependencies, check_installed_packages
API 密钥安全提供了 env 输入示例
采样支持(评测时用处较小)未指定

我们的看法

该 MCP 服务器为代码执行与 LLM 集成提供了基本且强大的功能,并配有清晰的安装说明和工具。但其缺少指令模板、明确的资源和采样支持等信息。作为专注于代码执行的 MCP,实用性和集成便捷性非常出色,但在高级 MCP 特性和文档完整性上略有欠缺。

MCP 评分

是否有 LICENSE✅(MIT)
至少有一个工具
Fork 数量25
Star 数量144

常见问题

什么是 MCP 代码执行器 MCP 服务器?

它是一种模型上下文协议(MCP)服务器,允许语言模型在安全、隔离的环境(如 Conda 或 venv)中执行 Python 代码,管理依赖并配置运行环境。非常适用于代码评估、数据科学、自动化工作流以及与 FlowHunt 的动态环境搭建。

该 MCP 服务器提供哪些工具?

它提供用于执行 Python 代码(`execute_code`)、动态安装依赖(`install_dependencies`)和检查已安装包(`check_installed_packages`)的工具。

如何将此服务器集成到 FlowHunt?

将 MCP 代码执行器作为 MCP 组件添加到您的流程中,并配置服务器的 URL 和传输方式。这样您的 AI 代理即可在 FlowHunt 内使用其代码执行和环境管理能力。

可以隔离代码执行并管理环境吗?

可以,服务器支持在隔离的 Conda 或 virtualenv 环境中运行代码,确保结果可复现且依赖不冲突。

支持对大型代码块的增量执行吗?

支持,服务器能够增量执行代码,非常适合处理超出 LLM token 限制的大型代码。

能否用 Docker 替代 Node.js?

可以,您可使用提供的 Dockerfile,将 MCP 服务器配置为在 Docker 容器内运行,以获得更强的隔离性。

在 FlowHunt 中体验 MCP 代码执行器

为您的流程赋能,安全自动化执行 Python 代码。集成 MCP 代码执行器 MCP 服务器,解锁数据科学、自动化等领域的动态工作流。

了解更多

MCP-Server-Creator MCP 服务器
MCP-Server-Creator MCP 服务器

MCP-Server-Creator MCP 服务器

MCP-Server-Creator 是一个元服务器,可以快速创建和配置新的模型上下文协议(MCP)服务器。通过动态代码生成、工具构建和资源管理,它简化了自定义 AI 连接与集成服务器的开发,帮助技术团队自动化工作流程并加速部署。...

2 分钟阅读
AI MCP +5
Coda MCP 服务器集成
Coda MCP 服务器集成

Coda MCP 服务器集成

Coda MCP 服务器为 AI 助手与 Coda 平台交互提供了标准化方式,实现文档查询、工作流自动化和统一协议兼容性,从而与 FlowHunt 及其他 AI 代理无缝集成。...

1 分钟阅读
MCP AI +4
JupyterMCP MCP 服务器集成
JupyterMCP MCP 服务器集成

JupyterMCP MCP 服务器集成

JupyterMCP 通过模型上下文协议(MCP)实现 Jupyter Notebook(6.x)与 AI 助手的无缝集成。利用 LLM 自动执行代码、管理单元格和获取输出,简化数据科学工作流程并提升生产力。...

2 分钟阅读
MCP Jupyter +5