MCP Code Executor MCP Server

MCP Code Executor MCP Server

AI MCP Components Python

Hvad gør “MCP Code Executor” MCP Server?

MCP Code Executor er en MCP (Model Context Protocol) server, der gør det muligt for sprogmodeller (LLMs) at eksekvere Python-kode i et udpeget Python-miljø, såsom Conda, virtualenv eller UV virtualenv. Ved at forbinde AI-assistenter til reelle, eksekverbare Python-miljøer, giver den dem mulighed for at udføre en bred vifte af udviklingsopgaver, der kræver kodeeksekvering, bibliotekshåndtering og dynamisk miljøopsætning. Denne server understøtter inkrementel kodegenerering for at overvinde tokenbegrænsninger, giver mulighed for installation af afhængigheder on-the-fly, og gør det nemt at konfigurere runtime-miljøet. Udviklere kan bruge dette værktøj til at automatisere kodeevaluering, eksperimentere med nye pakker og styre udregninger i et kontrolleret og sikkert miljø.

Liste over Prompter

Ingen udtrykkelige promptskabeloner er angivet i repository eller dokumentation.

Liste over ressourcer

Ingen specifikke ressourcer er beskrevet i repository eller dokumentation.

Liste over værktøjer

  • execute_code
    • Eksekverer Python-kode i det konfigurerede miljø. Velegnet til at køre korte kodeudsnit og scripts.
  • install_dependencies
    • Installerer angivne Python-pakker i det aktuelle miljø, så biblioteker kan inkluderes dynamisk efter behov.
  • check_installed_packages
    • Tjekker hvilke Python-pakker, der aktuelt er installeret i miljøet.

Anvendelsesmuligheder for denne MCP Server

  • Automatiseret kodeevaluering
    • LLMs kan køre og teste Python-kode direkte, hvilket er nyttigt i undervisning, review eller fejlsøgningskontekster.
  • Dynamisk afhængighedsstyring
    • Installerer nødvendige pakker on-the-fly, så LLMs kan tilpasse eksekveringsmiljøet til specialiserede opgaver eller biblioteker.
  • Miljøisolering
    • Kører kode i isolerede Conda- eller virtualenv-miljøer, sikrer reproducerbarhed og undgår afhængighedskonflikter.
  • Inkrementel kodegenerering
    • Understøtter inkrementel kodeeksekvering, så store kodeblokke kan håndteres, selvom de overskrider tokenbegrænsningen for ét LLM-svar.
  • Data science og analyse
    • Gør det muligt for AI-agenter at lave dataanalyse, køre simulationer eller visualisere resultater ved at eksekvere kode med almindelige videnskabelige Python-biblioteker.

Sådan sætter du det op

Windsurf

  1. Sørg for, at Node.js er installeret.
  2. Klon MCP Code Executor-repositoriet og byg projektet.
  3. Find din MCP servers konfigurationsfil.
  4. Tilføj MCP Code Executor-serveren ved at bruge dette JSON-udsnit:
    {
      "mcpServers": {
        "mcp-code-executor": {
          "command": "node",
          "args": [
            "/path/to/mcp_code_executor/build/index.js"
          ],
          "env": {
            "CODE_STORAGE_DIR": "/path/to/code/storage",
            "ENV_TYPE": "conda",
            "CONDA_ENV_NAME": "your-conda-env"
          }
        }
      }
    }
    
  5. Gem filen og genstart Windsurf. Bekræft at serveren er tilgængelig.

Sikring af API-nøgler (eksempel med miljøvariabler)

{
  "mcpServers": {
    "mcp-code-executor": {
      "env": {
        "CODE_STORAGE_DIR": "/path/to/code/storage",
        "ENV_TYPE": "conda",
        "CONDA_ENV_NAME": "your-conda-env",
        "MY_SECRET_API_KEY": "${MY_SECRET_API_KEY}"
      },
      "inputs": {
        "apiKey": "${MY_SECRET_API_KEY}"
      }
    }
  }
}

Claude

  1. Sørg for, at Node.js er installeret.
  2. Byg MCP Code Executor ifølge repository-anvisningerne.
  3. Åbn konfigurationsfilen for Claudes MCP-servere.
  4. Indsæt følgende konfiguration:
    {
      "mcpServers": {
        "mcp-code-executor": {
          "command": "node",
          "args": [
            "/path/to/mcp_code_executor/build/index.js"
          ],
          "env": {
            "CODE_STORAGE_DIR": "/path/to/code/storage",
            "ENV_TYPE": "conda",
            "CONDA_ENV_NAME": "your-conda-env"
          }
        }
      }
    }
    
  5. Gem og genstart Claude. Bekræft at serveren er opført.

Cursor

  1. Installer Node.js.
  2. Klon og byg MCP Code Executor-repositoriet.
  3. Redigér Cursors MCP-konfiguration.
  4. Tilføj:
    {
      "mcpServers": {
        "mcp-code-executor": {
          "command": "node",
          "args": [
            "/path/to/mcp_code_executor/build/index.js"
          ],
          "env": {
            "CODE_STORAGE_DIR": "/path/to/code/storage",
            "ENV_TYPE": "conda",
            "CONDA_ENV_NAME": "your-conda-env"
          }
        }
      }
    }
    
  5. Gem og genstart Cursor. Test ved at køre en eksempelkode.

Cline

  1. Sørg for, at Node.js er tilgængelig.
  2. Byg MCP Code Executor efter README-anvisningerne.
  3. Find Clines konfigurationsfil for MCP-servere.
  4. Tilføj:
    {
      "mcpServers": {
        "mcp-code-executor": {
          "command": "node",
          "args": [
            "/path/to/mcp_code_executor/build/index.js"
          ],
          "env": {
            "CODE_STORAGE_DIR": "/path/to/code/storage",
            "ENV_TYPE": "conda",
            "CONDA_ENV_NAME": "your-conda-env"
          }
        }
      }
    }
    
  5. Gem og genstart Cline. Bekræft at MCP-serveren er aktiv.

Bemærk: Du kan også bruge Docker. Den medfølgende Dockerfile er testet til venv-uv miljøtypen:

{
  "mcpServers": {
    "mcp-code-executor": {
      "command": "docker",
      "args": [
        "run",
        "-i",
        "--rm",
        "mcp-code-executor"
      ]
    }
  }
}

Sådan bruges denne MCP i flows

Brug af MCP i FlowHunt

For at integrere MCP-servere i dit FlowHunt-workflow skal du starte med at tilføje MCP-komponenten til dit flow og forbinde den til din AI-agent:

FlowHunt MCP flow

Klik på MCP-komponenten for at åbne konfigurationspanelet. I systemets MCP-konfigurationssektion indsætter du dine MCP-serveroplysninger med dette JSON-format:

{
  "mcp-code-executor": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

Når det er konfigureret, kan AI-agenten nu bruge denne MCP som et værktøj med adgang til alle dens funktioner og muligheder. Husk at ændre “mcp-code-executor” til det faktiske navn på din MCP-server og erstatte URL’en med din egen MCP-server-URL.


Oversigt

SektionTilgængelighedDetaljer/Noter
Oversigt
Liste over PrompterIngen promptskabeloner fundet
Liste over RessourcerIngen udtrykkelige ressourcer beskrevet
Liste over Værktøjerexecute_code, install_dependencies, check_installed_packages
Sikring af API-nøglerEksempel givet med env inputs
Sampling Support (mindre vigtigt i evaluering)Ikke specificeret

Vores vurdering

Denne MCP-server tilbyder væsentlig og robust funktionalitet til kodeeksekvering med LLM-integration samt klare opsætningsvejledninger og værktøjer. Den mangler dog promptskabeloner, eksplicitte ressourcer og information om rødder eller sampling support. For en MCP med fokus på kodeeksekvering er den dog meget solid, scorer højt på praktisk anvendelighed og integrationsvenlighed, men mister nogle point for manglende avancerede MCP-features og dokumentationsfuldstændighed.

MCP-score

Har en LICENSE✅ (MIT)
Har mindst ét værktøj
Antal forks25
Antal stjerner144

Ofte stillede spørgsmål

Hvad er MCP Code Executor MCP Server?

Det er en Model Context Protocol (MCP) server, der gør det muligt for sprogmodeller at eksekvere Python-kode i sikre, isolerede miljøer (som Conda eller venv), håndtere afhængigheder og konfigurere runtime-miljøer. Ideel til kodeevaluering, data science, automatiserede workflows og dynamisk miljøopsætning med FlowHunt.

Hvilke værktøjer tilbyder denne MCP-server?

Den tilbyder værktøjer til at eksekvere Python-kode (`execute_code`), installere afhængigheder on-the-fly (`install_dependencies`) og tjekke installerede pakker (`check_installed_packages`).

Hvordan integrerer jeg denne server med FlowHunt?

Tilføj MCP Code Executor som en MCP-komponent i dit flow, og konfigurer den med din servers URL og transportmetode. Dette gør det muligt for dine AI-agenter at bruge dens kodeeksekverings- og miljøadministrationsfunktioner direkte i FlowHunt.

Kan jeg isolere kodeeksekvering og styre miljøer?

Ja, serveren understøtter at køre kode i isolerede Conda- eller virtualenv-miljøer, hvilket sikrer reproducerbarhed og undgår konflikter mellem afhængigheder.

Understøtter den inkrementel kodeeksekvering for store kodeblokke?

Ja, serveren kan køre kode inkrementelt, hvilket er nyttigt til håndtering af kode, der overstiger LLM-tokenbegrænsninger.

Er det muligt at bruge Docker i stedet for Node.js?

Ja, du kan bruge den medfølgende Dockerfile og konfigurere MCP-serveren til at køre i en Docker-container for yderligere isolation.

Prøv MCP Code Executor med FlowHunt

Styrk dine flows med sikker, automatiseret Python-kodeeksekvering. Integrér MCP Code Executor MCP Server og få adgang til dynamiske workflows for data science, automatisering og meget mere.

Lær mere

MCP-Server-Creator MCP Server
MCP-Server-Creator MCP Server

MCP-Server-Creator MCP Server

MCP-Server-Creator er en meta-server, der muliggør hurtig oprettelse og konfiguration af nye Model Context Protocol (MCP) servere. Med dynamisk kodegenerering, ...

4 min læsning
AI MCP +5
Coda MCP Server-integration
Coda MCP Server-integration

Coda MCP Server-integration

Coda MCP Server giver en standardiseret måde for AI-assistenter at interagere med Codas platform, hvilket muliggør dokumentforespørgsler, workflow-automatiserin...

3 min læsning
MCP AI +4
CodeLogic MCP Server-integration
CodeLogic MCP Server-integration

CodeLogic MCP Server-integration

CodeLogic MCP Server forbinder FlowHunt og AI-programmeringsassistenter med CodeLogics detaljerede softwareafhængighedsdata, hvilket muliggør avanceret kodeanal...

4 min læsning
MCP AI +4