MCP Code Executor MCP Server

Uruchamiaj kod Python, instaluj zależności i zarządzaj izolowanymi środowiskami bezpośrednio w swoich przepływach FlowHunt dzięki MCP Code Executor MCP Server.

MCP Code Executor MCP Server

Co robi serwer “MCP Code Executor” MCP Server?

MCP Code Executor to serwer MCP (Model Context Protocol), który umożliwia modelom językowym (LLM) wykonywanie kodu Python w wyznaczonym środowisku Python, takim jak Conda, virtualenv lub UV virtualenv. Łącząc asystentów AI z rzeczywistymi, wykonywalnymi środowiskami Python, pozwala im realizować szeroki zakres zadań deweloperskich wymagających wykonania kodu, zarządzania bibliotekami oraz dynamicznego przygotowania środowiska. Serwer obsługuje inkrementalne generowanie kodu, by obejść ograniczenia tokenów, pozwala na instalację zależności w locie, a także ułatwia konfigurowanie środowiska uruchomieniowego. Programiści mogą wykorzystać to narzędzie do automatycznej oceny kodu, eksperymentowania z nowymi pakietami oraz zarządzania obliczeniami w kontrolowanym i bezpiecznym środowisku.

Lista promptów

Brak explicite zdefiniowanych szablonów promptów w repozytorium lub dokumentacji.

Lista zasobów

Brak szczegółowo opisanych zasobów w repozytorium lub dokumentacji.

Lista narzędzi

  • execute_code
    • Wykonuje kod Python w skonfigurowanym środowisku. Odpowiedni do uruchamiania krótkich fragmentów kodu i skryptów.
  • install_dependencies
    • Instaluje wskazane pakiety Pythona w bieżącym środowisku, umożliwiając dynamiczne dodawanie bibliotek według potrzeb.
  • check_installed_packages
    • Sprawdza, które pakiety Python są obecnie zainstalowane w środowisku.

Przykłady użycia tego serwera MCP

  • Automatyczna ocena kodu
    • LLM mogą wykonywać i testować fragmenty kodu Python bezpośrednio, co przydaje się w edukacji, recenzjach lub debugowaniu.
  • Dynamiczne zarządzanie zależnościami
    • Instalowanie wymaganych pakietów na bieżąco, pozwalając LLM dostosować środowisko do specjalistycznych zadań lub bibliotek.
  • Izolacja środowiska
    • Uruchamianie kodu w izolowanych środowiskach Conda lub virtualenv, zapewniając powtarzalność i brak konfliktów zależności.
  • Inkrementalne generowanie kodu
    • Obsługuje inkrementalne wykonywanie kodu, co pozwala na obsługę dużych bloków kodu przekraczających limity tokenów w pojedynczej odpowiedzi LLM.
  • Data science i analiza
    • Umożliwia agentom AI analizę danych, uruchamianie symulacji lub wizualizowanie wyników przez wykonywanie kodu z popularnymi bibliotekami naukowymi Pythona.

Jak skonfigurować

Windsurf

  1. Upewnij się, że Node.js jest zainstalowany.
  2. Sklonuj repozytorium MCP Code Executor i zbuduj projekt.
  3. Zlokalizuj plik konfiguracyjny serwerów MCP.
  4. Dodaj serwer MCP Code Executor używając poniższego fragmentu JSON:
    {
      "mcpServers": {
        "mcp-code-executor": {
          "command": "node",
          "args": [
            "/path/to/mcp_code_executor/build/index.js"
          ],
          "env": {
            "CODE_STORAGE_DIR": "/path/to/code/storage",
            "ENV_TYPE": "conda",
            "CONDA_ENV_NAME": "your-conda-env"
          }
        }
      }
    }
    
  5. Zapisz plik i zrestartuj Windsurf. Sprawdź, czy serwer jest dostępny.

Zabezpieczanie kluczy API (przykład zmiennych środowiskowych)

{
  "mcpServers": {
    "mcp-code-executor": {
      "env": {
        "CODE_STORAGE_DIR": "/path/to/code/storage",
        "ENV_TYPE": "conda",
        "CONDA_ENV_NAME": "your-conda-env",
        "MY_SECRET_API_KEY": "${MY_SECRET_API_KEY}"
      },
      "inputs": {
        "apiKey": "${MY_SECRET_API_KEY}"
      }
    }
  }
}

Claude

  1. Upewnij się, że Node.js jest zainstalowany.
  2. Zbuduj MCP Code Executor zgodnie z instrukcją repozytorium.
  3. Otwórz plik konfiguracyjny serwerów MCP Claude’a.
  4. Wstaw poniższą konfigurację:
    {
      "mcpServers": {
        "mcp-code-executor": {
          "command": "node",
          "args": [
            "/path/to/mcp_code_executor/build/index.js"
          ],
          "env": {
            "CODE_STORAGE_DIR": "/path/to/code/storage",
            "ENV_TYPE": "conda",
            "CONDA_ENV_NAME": "your-conda-env"
          }
        }
      }
    }
    
  5. Zapisz i zrestartuj Claude. Potwierdź, że serwer jest widoczny.

Cursor

  1. Zainstaluj Node.js.
  2. Sklonuj i zbuduj repozytorium MCP Code Executor.
  3. Edytuj konfigurację MCP Cursor.
  4. Dodaj:
    {
      "mcpServers": {
        "mcp-code-executor": {
          "command": "node",
          "args": [
            "/path/to/mcp_code_executor/build/index.js"
          ],
          "env": {
            "CODE_STORAGE_DIR": "/path/to/code/storage",
            "ENV_TYPE": "conda",
            "CONDA_ENV_NAME": "your-conda-env"
          }
        }
      }
    }
    
  5. Zapisz i zrestartuj Cursor. Przetestuj uruchamiając przykładowe wykonanie kodu.

Cline

  1. Upewnij się, że Node.js jest dostępny.
  2. Zbuduj MCP Code Executor zgodnie z instrukcją README.
  3. Zlokalizuj plik konfiguracyjny serwerów MCP Cline.
  4. Dodaj:
    {
      "mcpServers": {
        "mcp-code-executor": {
          "command": "node",
          "args": [
            "/path/to/mcp_code_executor/build/index.js"
          ],
          "env": {
            "CODE_STORAGE_DIR": "/path/to/code/storage",
            "ENV_TYPE": "conda",
            "CONDA_ENV_NAME": "your-conda-env"
          }
        }
      }
    }
    
  5. Zapisz i zrestartuj Cline. Sprawdź, czy serwer MCP jest aktywny.

Uwaga: Możesz także użyć Dockera. Dostarczony Dockerfile został przetestowany dla środowiska venv-uv:

{
  "mcpServers": {
    "mcp-code-executor": {
      "command": "docker",
      "args": [
        "run",
        "-i",
        "--rm",
        "mcp-code-executor"
      ]
    }
  }
}

Jak używać tego MCP w przepływach

Używanie MCP w FlowHunt

Aby zintegrować serwery MCP z workflow FlowHunt, rozpocznij od dodania komponentu MCP do swojego przepływu i połącz go z agentem AI:

FlowHunt MCP flow

Kliknij komponent MCP, aby otworzyć panel konfiguracji. W sekcji konfiguracji systemu MCP wstaw dane serwera MCP w tym formacie JSON:

{
  "mcp-code-executor": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

Po skonfigurowaniu agent AI może już korzystać z tego MCP jako narzędzia ze wszystkimi jego funkcjami i możliwościami. Pamiętaj, by zamienić “mcp-code-executor” na faktyczną nazwę swojego serwera MCP i wstawić swój własny adres URL serwera MCP.


Przegląd

SekcjaDostępnośćSzczegóły/Uwagi
Przegląd
Lista promptówNie znaleziono szablonów promptów
Lista zasobówBrak opisanych zasobów
Lista narzędziexecute_code, install_dependencies, check_installed_packages
Zabezpieczanie kluczy APIPrzykład z inputami env
Sampling Support (mniej istotne w ewaluacji)Nie określono

Nasza opinia

Ten serwer MCP oferuje kluczową i solidną funkcjonalność wykonywania kodu z integracją LLM, wraz z jasnymi instrukcjami konfiguracji i narzędziami. Brakuje jednak szablonów promptów, explicitnie opisanych zasobów oraz informacji o roots czy sampling support. Jak na MCP skupiony na wykonywaniu kodu jest bardzo mocny, wysoko oceniany za praktyczną użyteczność i łatwość integracji, ale traci punkty za brak zaawansowanych funkcji MCP i kompletności dokumentacji.

Ocena MCP

Czy posiada LICENCJĘ✅ (MIT)
Czy ma przynajmniej jedno narzędzie
Liczba Forków25
Liczba Gwiazdek144

Najczęściej zadawane pytania

Czym jest MCP Code Executor MCP Server?

To serwer Model Context Protocol (MCP), który umożliwia modelom językowym wykonywanie kodu Python w bezpiecznych, izolowanych środowiskach (takich jak Conda lub venv), zarządzanie zależnościami i konfigurację środowiska uruchomieniowego. Idealny do oceny kodu, data science, automatycznych workflow oraz dynamicznego przygotowania środowisk z FlowHunt.

Jakie narzędzia udostępnia ten serwer MCP?

Udostępnia narzędzia do wykonywania kodu Python (`execute_code`), instalowania zależności na żądanie (`install_dependencies`) oraz sprawdzania zainstalowanych pakietów (`check_installed_packages`).

Jak zintegrować ten serwer z FlowHunt?

Dodaj MCP Code Executor jako komponent MCP w swoim przepływie, a następnie skonfiguruj go z adresem URL serwera i metodą transportu. Dzięki temu Twoje agenty AI mogą korzystać z wykonania kodu i zarządzania środowiskiem w FlowHunt.

Czy można izolować wykonanie kodu i zarządzać środowiskami?

Tak, serwer obsługuje uruchamianie kodu w izolowanych środowiskach Conda lub virtualenv, co zapewnia powtarzalność i zapobiega konfliktom zależności.

Czy wspiera inkrementalne wykonywanie dużych bloków kodu?

Tak, serwer potrafi wykonywać kod inkrementalnie, co przydaje się przy obsłudze kodu przekraczającego limity tokenów LLM.

Czy można użyć Dockera zamiast Node.js?

Tak, możesz użyć dostarczonego pliku Dockerfile i skonfigurować serwer MCP do uruchamiania w kontenerze Docker dla dodatkowej izolacji.

Wypróbuj MCP Code Executor z FlowHunt

Wzmocnij swoje przepływy bezpiecznym, automatycznym wykonywaniem kodu Python. Zintegruj MCP Code Executor MCP Server i odblokuj dynamiczne workflow dla data science, automatyzacji i nie tylko.

Dowiedz się więcej