Máy chủ MCP Code Executor MCP

Máy chủ MCP Code Executor MCP

Chạy mã Python, cài đặt phụ thuộc và quản lý các môi trường biệt lập trực tiếp trong flow của bạn với MCP Code Executor MCP Server.

Máy chủ “MCP Code Executor” làm gì?

MCP Code Executor là một máy chủ MCP (Model Context Protocol) cho phép các mô hình ngôn ngữ (LLM) thực thi mã Python trong một môi trường Python được chỉ định, như Conda, virtualenv hoặc UV virtualenv. Bằng cách kết nối trợ lý AI với các môi trường Python thực có thể thực thi, nó giúp thực hiện nhiều tác vụ phát triển cần chạy mã, quản lý thư viện và thiết lập môi trường động. Máy chủ này hỗ trợ sinh mã tăng dần để vượt qua giới hạn token, cho phép cài đặt phụ thuộc tức thì và cấu hình môi trường thực thi khi runtime. Các nhà phát triển có thể tận dụng công cụ này để tự động đánh giá mã, thử nghiệm các package mới và quản lý tính toán trong một môi trường kiểm soát, an toàn.

Danh sách Prompts

Không có template prompt cụ thể nào được liệt kê trong repository hoặc tài liệu.

Danh sách Resources

Không có resource cụ thể nào được mô tả trong repository hoặc tài liệu.

Danh sách Công cụ

  • execute_code
    • Thực thi mã Python trong môi trường đã cấu hình. Phù hợp để chạy các đoạn mã ngắn và script.
  • install_dependencies
    • Cài đặt các gói Python được chỉ định vào môi trường hiện tại, cho phép thêm thư viện động khi cần thiết.
  • check_installed_packages
    • Kiểm tra các gói Python hiện đã cài đặt trong môi trường.

Các trường hợp sử dụng của MCP Server này

  • Đánh giá mã tự động
    • LLM có thể thực thi và kiểm thử các đoạn mã Python trực tiếp, hữu ích trong giáo dục, review hoặc debug.
  • Quản lý phụ thuộc động
    • Cài đặt các gói cần thiết tức thì, cho phép LLM tùy chỉnh môi trường thực thi cho các tác vụ hoặc thư viện chuyên biệt.
  • Biệt lập môi trường
    • Chạy mã trong môi trường Conda hoặc virtualenv biệt lập, đảm bảo khả năng tái lập và tránh xung đột phụ thuộc.
  • Sinh mã tăng dần
    • Hỗ trợ thực thi mã theo từng phần, giúp xử lý các khối mã lớn có thể vượt quá giới hạn token trong một phản hồi LLM.
  • Khoa học dữ liệu và phân tích
    • Cho phép AI agent thực hiện phân tích dữ liệu, chạy mô phỏng hoặc trực quan hóa bằng cách thực thi mã với các thư viện Python khoa học phổ biến.

Cách thiết lập

Windsurf

  1. Đảm bảo đã cài đặt Node.js.
  2. Sao chép repository MCP Code Executor và build dự án.
  3. Xác định vị trí file cấu hình máy chủ MCP của bạn.
  4. Thêm máy chủ MCP Code Executor bằng đoạn JSON sau:
    {
      "mcpServers": {
        "mcp-code-executor": {
          "command": "node",
          "args": [
            "/path/to/mcp_code_executor/build/index.js"
          ],
          "env": {
            "CODE_STORAGE_DIR": "/path/to/code/storage",
            "ENV_TYPE": "conda",
            "CONDA_ENV_NAME": "your-conda-env"
          }
        }
      }
    }
    
  5. Lưu file và khởi động lại Windsurf. Kiểm tra máy chủ đã sẵn sàng.

Bảo mật API Key (Ví dụ dùng biến môi trường)

{
  "mcpServers": {
    "mcp-code-executor": {
      "env": {
        "CODE_STORAGE_DIR": "/path/to/code/storage",
        "ENV_TYPE": "conda",
        "CONDA_ENV_NAME": "your-conda-env",
        "MY_SECRET_API_KEY": "${MY_SECRET_API_KEY}"
      },
      "inputs": {
        "apiKey": "${MY_SECRET_API_KEY}"
      }
    }
  }
}

Claude

  1. Đảm bảo Node.js đã được cài đặt.
  2. Build MCP Code Executor theo hướng dẫn trong repository.
  3. Mở file cấu hình máy chủ MCP cho Claude.
  4. Thêm đoạn cấu hình sau:
    {
      "mcpServers": {
        "mcp-code-executor": {
          "command": "node",
          "args": [
            "/path/to/mcp_code_executor/build/index.js"
          ],
          "env": {
            "CODE_STORAGE_DIR": "/path/to/code/storage",
            "ENV_TYPE": "conda",
            "CONDA_ENV_NAME": "your-conda-env"
          }
        }
      }
    }
    
  5. Lưu và khởi động lại Claude. Xác nhận máy chủ đã được liệt kê.

Cursor

  1. Cài đặt Node.js.
  2. Sao chép và build MCP Code Executor từ repository.
  3. Chỉnh sửa cấu hình MCP của Cursor.
  4. Thêm:
    {
      "mcpServers": {
        "mcp-code-executor": {
          "command": "node",
          "args": [
            "/path/to/mcp_code_executor/build/index.js"
          ],
          "env": {
            "CODE_STORAGE_DIR": "/path/to/code/storage",
            "ENV_TYPE": "conda",
            "CONDA_ENV_NAME": "your-conda-env"
          }
        }
      }
    }
    
  5. Lưu và khởi động lại Cursor. Kiểm tra bằng cách chạy thử thực thi mã.

Cline

  1. Đảm bảo Node.js khả dụng.
  2. Build MCP Code Executor theo hướng dẫn trong README.
  3. Xác định file cấu hình máy chủ MCP của Cline.
  4. Thêm:
    {
      "mcpServers": {
        "mcp-code-executor": {
          "command": "node",
          "args": [
            "/path/to/mcp_code_executor/build/index.js"
          ],
          "env": {
            "CODE_STORAGE_DIR": "/path/to/code/storage",
            "ENV_TYPE": "conda",
            "CONDA_ENV_NAME": "your-conda-env"
          }
        }
      }
    }
    
  5. Lưu và khởi động lại Cline. Kiểm tra máy chủ MCP đã hoạt động.

Lưu ý: Bạn cũng có thể sử dụng Docker. Dockerfile được cung cấp đã thử nghiệm cho kiểu môi trường venv-uv:

{
  "mcpServers": {
    "mcp-code-executor": {
      "command": "docker",
      "args": [
        "run",
        "-i",
        "--rm",
        "mcp-code-executor"
      ]
    }
  }
}

Cách sử dụng MCP này trong flows

Sử dụng MCP trong FlowHunt

Để tích hợp MCP server vào workflow FlowHunt, hãy bắt đầu bằng cách thêm thành phần MCP vào flow và kết nối nó với AI agent của bạn:

FlowHunt MCP flow

Nhấp vào thành phần MCP để mở bảng cấu hình. Trong phần cấu hình hệ thống MCP, chèn thông tin máy chủ MCP của bạn theo định dạng JSON này:

{
  "mcp-code-executor": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

Khi đã cấu hình, AI agent có thể sử dụng MCP này như một công cụ với đầy đủ các chức năng và khả năng. Hãy nhớ thay “mcp-code-executor” thành tên thực tế của máy chủ MCP của bạn và thay URL bằng địa chỉ máy chủ MCP của bạn.


Tổng quan

MụcKhả dụngChi tiết/Ghi chú
Tổng quan
Danh sách PromptsKhông tìm thấy template prompt
Danh sách ResourcesKhông mô tả resource cụ thể
Danh sách Công cụexecute_code, install_dependencies, check_installed_packages
Bảo mật API KeyCó ví dụ với input env
Sampling Support (ít quan trọng khi đánh giá)Không đề cập

Ý kiến của chúng tôi

Máy chủ MCP này cung cấp các chức năng cần thiết và mạnh mẽ cho thực thi mã với tích hợp LLM, kèm hướng dẫn thiết lập và công cụ rõ ràng. Tuy nhiên, nó thiếu template prompt, resource cụ thể, và thông tin về roots hoặc sampling. Đối với MCP tập trung vào thực thi mã, đây là lựa chọn rất chắc chắn, đạt điểm cao về tiện ích thực tiễn và dễ tích hợp, nhưng mất điểm ở các tính năng MCP nâng cao và độ đầy đủ tài liệu.

MCP Score

Có LICENSE✅ (MIT)
Có ít nhất một công cụ
Số lượng Fork25
Số lượng Star144

Câu hỏi thường gặp

MCP Code Executor MCP Server là gì?

Đây là một máy chủ Model Context Protocol (MCP) cho phép mô hình ngôn ngữ thực thi mã Python trong các môi trường biệt lập và an toàn (như Conda hoặc venv), quản lý phụ thuộc và cấu hình môi trường runtime. Lý tưởng cho đánh giá mã, khoa học dữ liệu, tự động hóa quy trình và thiết lập môi trường động cùng FlowHunt.

Máy chủ MCP này cung cấp những công cụ nào?

Nó cung cấp các công cụ để thực thi mã Python (`execute_code`), cài đặt phụ thuộc động (`install_dependencies`) và kiểm tra các gói đã cài đặt (`check_installed_packages`).

Làm sao để tích hợp máy chủ này với FlowHunt?

Thêm MCP Code Executor như một thành phần MCP vào flow của bạn, sau đó cấu hình với URL và phương thức truyền của máy chủ. Điều này cho phép AI agent sử dụng khả năng thực thi mã và quản lý môi trường bên trong FlowHunt.

Tôi có thể biệt lập thực thi mã và quản lý môi trường không?

Có, máy chủ hỗ trợ chạy mã trong các môi trường Conda hoặc virtualenv biệt lập, đảm bảo khả năng tái lập và ngăn xung đột giữa các phụ thuộc.

Máy chủ có hỗ trợ thực thi mã tăng dần cho các khối mã lớn không?

Có, máy chủ có thể thực thi mã theo từng phần, hữu ích khi xử lý mã vượt quá giới hạn token của LLM.

Có thể sử dụng Docker thay vì Node.js không?

Có, bạn có thể sử dụng Dockerfile được cung cấp và cấu hình máy chủ MCP chạy trong container Docker để tăng thêm biệt lập.

Trải nghiệm MCP Code Executor cùng FlowHunt

Tăng sức mạnh cho flow của bạn với thực thi mã Python an toàn, tự động. Tích hợp MCP Code Executor MCP Server và mở khóa các quy trình động cho khoa học dữ liệu, tự động hóa và nhiều hơn thế nữa.

Tìm hiểu thêm

Tích hợp Máy chủ Coda MCP
Tích hợp Máy chủ Coda MCP

Tích hợp Máy chủ Coda MCP

Máy chủ Coda MCP cung cấp một phương thức tiêu chuẩn để trợ lý AI tương tác với nền tảng Coda, cho phép truy vấn tài liệu, tự động hóa quy trình công việc và tư...

4 phút đọc
MCP AI +4
Tích Hợp Máy Chủ CodeLogic MCP
Tích Hợp Máy Chủ CodeLogic MCP

Tích Hợp Máy Chủ CodeLogic MCP

Máy chủ CodeLogic MCP kết nối FlowHunt và các trợ lý lập trình AI với dữ liệu phụ thuộc phần mềm chi tiết của CodeLogic, cho phép phân tích mã nguồn nâng cao, t...

5 phút đọc
MCP AI +4
Tích Hợp Máy Chủ Codacy MCP
Tích Hợp Máy Chủ Codacy MCP

Tích Hợp Máy Chủ Codacy MCP

Máy chủ Codacy MCP kết nối các trợ lý AI với nền tảng Codacy, cho phép tự động kiểm tra chất lượng mã nguồn, phân tích bảo mật, quản lý kho lưu trữ và tối ưu hó...

6 phút đọc
AI Code Quality +4