MCP Code Executor MCP Server

MCP Code Executor MCP Server

Kjør Python-kode, installer avhengigheter og administrer isolerte miljøer direkte i dine FlowHunt-flows med MCP Code Executor MCP Server.

Hva gjør “MCP Code Executor” MCP Server?

MCP Code Executor er en MCP (Model Context Protocol) server som lar språkmodeller (LLM-er) kjøre Python-kode i et angitt Python-miljø, som Conda, virtualenv eller UV virtualenv. Ved å koble AI-assistenter til ekte, kjørbare Python-miljøer, gir den dem mulighet til å utføre en rekke utviklingsoppgaver som krever kodekjøring, bibliotekadministrasjon og dynamisk miljøoppsett. Denne serveren støtter inkrementell kodegenerering for å overvinne tokenbegrensninger, muliggjør installasjon av avhengigheter underveis og forenkler kjøretidskonfigurasjon av utførelsesmiljøet. Utviklere kan dra nytte av dette verktøyet for å automatisere kodeevaluering, eksperimentere med nye pakker og styre beregninger i et kontrollert og sikkert miljø.

Liste over prompt-maler

Ingen eksplisitte prompt-maler er oppført i repositoriet eller dokumentasjonen.

Liste over ressurser

Ingen spesifikke ressurser er beskrevet i repositoriet eller dokumentasjonen.

Liste over verktøy

  • execute_code
    • Kjører Python-kode i det konfigurerte miljøet. Egnet for å kjøre korte kodebiter og skript.
  • install_dependencies
    • Installerer spesifiserte Python-pakker i det nåværende miljøet, og muliggjør dynamisk inkludering av biblioteker etter behov.
  • check_installed_packages
    • Sjekker hvilke Python-pakker som for øyeblikket er installert i miljøet.

Bruksområder for denne MCP-serveren

  • Automatisert kodeevaluering
    • LLM-er kan kjøre og teste Python-kodebiter direkte, noe som er nyttig i utdanning, gjennomgang eller feilsøkingssammenheng.
  • Dynamisk avhengighetsstyring
    • Installerer nødvendige pakker underveis, slik at LLM-er kan tilpasse utførelsesmiljøet for spesialiserte oppgaver eller biblioteker.
  • Miljøisolasjon
    • Kjører kode i isolerte Conda- eller virtualenv-miljøer, som sikrer reproduserbarhet og forhindrer avhengighetskonflikter.
  • Inkrementell kodegenerering
    • Støtter inkrementell kodekjøring, noe som gjør det mulig å håndtere store kodeblokker som kan overskride tokenbegrensningene i én LLM-respons.
  • Datavitenskap og analyse
    • Gjør det mulig for AI-agenter å utføre dataanalyse, kjøre simuleringer eller visualisere resultater ved å kjøre kode med vanlige vitenskapelige Python-biblioteker.

Slik setter du det opp

Windsurf

  1. Forsikre deg om at Node.js er installert.
  2. Klon MCP Code Executor-repositoriet og bygg prosjektet.
  3. Finn konfigurasjonsfilen for dine MCP-servere.
  4. Legg til MCP Code Executor-serveren med følgende JSON-utdrag:
    {
      "mcpServers": {
        "mcp-code-executor": {
          "command": "node",
          "args": [
            "/path/to/mcp_code_executor/build/index.js"
          ],
          "env": {
            "CODE_STORAGE_DIR": "/path/to/code/storage",
            "ENV_TYPE": "conda",
            "CONDA_ENV_NAME": "your-conda-env"
          }
        }
      }
    }
    
  5. Lagre filen og start Windsurf på nytt. Verifiser at serveren er tilgjengelig.

Sikre API-nøkler (eksempel med miljøvariabler)

{
  "mcpServers": {
    "mcp-code-executor": {
      "env": {
        "CODE_STORAGE_DIR": "/path/to/code/storage",
        "ENV_TYPE": "conda",
        "CONDA_ENV_NAME": "your-conda-env",
        "MY_SECRET_API_KEY": "${MY_SECRET_API_KEY}"
      },
      "inputs": {
        "apiKey": "${MY_SECRET_API_KEY}"
      }
    }
  }
}

Claude

  1. Forsikre deg om at Node.js er installert.
  2. Bygg MCP Code Executor i henhold til repositoriets instruksjoner.
  3. Åpne konfigurasjonsfilen for Claudes MCP-servere.
  4. Sett inn følgende konfigurasjon:
    {
      "mcpServers": {
        "mcp-code-executor": {
          "command": "node",
          "args": [
            "/path/to/mcp_code_executor/build/index.js"
          ],
          "env": {
            "CODE_STORAGE_DIR": "/path/to/code/storage",
            "ENV_TYPE": "conda",
            "CONDA_ENV_NAME": "your-conda-env"
          }
        }
      }
    }
    
  5. Lagre og start Claude på nytt. Bekreft at serveren er oppført.

Cursor

  1. Installer Node.js.
  2. Klon og bygg MCP Code Executor-repositoriet.
  3. Rediger Cursors MCP-konfigurasjon.
  4. Legg til:
    {
      "mcpServers": {
        "mcp-code-executor": {
          "command": "node",
          "args": [
            "/path/to/mcp_code_executor/build/index.js"
          ],
          "env": {
            "CODE_STORAGE_DIR": "/path/to/code/storage",
            "ENV_TYPE": "conda",
            "CONDA_ENV_NAME": "your-conda-env"
          }
        }
      }
    }
    
  5. Lagre og start Cursor på nytt. Test ved å kjøre en eksempel-kodekjøring.

Cline

  1. Forsikre deg om at Node.js er tilgjengelig.
  2. Bygg MCP Code Executor etter README-instruksjonene.
  3. Finn Clines konfigurasjonsfil for MCP-servere.
  4. Legg til:
    {
      "mcpServers": {
        "mcp-code-executor": {
          "command": "node",
          "args": [
            "/path/to/mcp_code_executor/build/index.js"
          ],
          "env": {
            "CODE_STORAGE_DIR": "/path/to/code/storage",
            "ENV_TYPE": "conda",
            "CONDA_ENV_NAME": "your-conda-env"
          }
        }
      }
    }
    
  5. Lagre og start Cline på nytt. Verifiser at MCP-serveren er aktiv.

Merk: Du kan også bruke Docker. Den medfølgende Dockerfile er testet for venv-uv-miljøtype:

{
  "mcpServers": {
    "mcp-code-executor": {
      "command": "docker",
      "args": [
        "run",
        "-i",
        "--rm",
        "mcp-code-executor"
      ]
    }
  }
}

Slik bruker du denne MCP-en i flows

Bruke MCP i FlowHunt

For å integrere MCP-servere i din FlowHunt-arbeidsflyt, start med å legge til MCP-komponenten i flowen din og koble den til AI-agenten:

FlowHunt MCP flow

Klikk på MCP-komponenten for å åpne konfigurasjonspanelet. I systemets MCP-konfigurasjonsdel limer du inn MCP-serverdetaljene dine med dette JSON-formatet:

{
  "mcp-code-executor": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

Når det er konfigurert, kan AI-agenten nå bruke denne MCP-serveren som et verktøy med tilgang til alle dens funksjoner og muligheter. Husk å endre “mcp-code-executor” til det faktiske navnet på din MCP-server og erstatte URL-en med din egen MCP-server-URL.


Oversikt

SeksjonTilgjengeligDetaljer/Notater
Oversikt
Liste over prompt-malerIngen prompt-maler funnet
Liste over ressurserIngen eksplisitte ressurser beskrevet
Liste over verktøyexecute_code, install_dependencies, check_installed_packages
Sikre API-nøklerEksempel gitt med env-inputs
Sampling-støtte (mindre viktig for evaluering)Ikke spesifisert

Vår mening

Denne MCP-serveren gir essensiell og robust funksjonalitet for kodekjøring med LLM-integrasjon, sammen med klare oppsettinstruksjoner og verktøy. Den mangler derimot prompt-maler, eksplisitte ressurser og informasjon om røtter eller sampling-støtte. For en MCP med fokus på kodekjøring er den svært solid, scorer høyt på praktisk nytte og enkel integrering, men mister noen poeng på grunn av manglende avanserte MCP-funksjoner og dokumentasjonskompletthet.

MCP-score

Har en LISENS✅ (MIT)
Har minst ett verktøy
Antall Forks25
Antall Stjerner144

Vanlige spørsmål

Hva er MCP Code Executor MCP Server?

Det er en Model Context Protocol (MCP) server som lar språkmodeller kjøre Python-kode i sikre, isolerte miljøer (som Conda eller venv), håndtere avhengigheter og konfigurere kjøremiljøer. Ideell for kodeevaluering, datavitenskap, automatiserte arbeidsflyter og dynamisk miljøoppsett med FlowHunt.

Hvilke verktøy tilbyr denne MCP-serveren?

Den tilbyr verktøy for å kjøre Python-kode (`execute_code`), installere avhengigheter fortløpende (`install_dependencies`) og sjekke installerte pakker (`check_installed_packages`).

Hvordan integrerer jeg denne serveren med FlowHunt?

Legg til MCP Code Executor som en MCP-komponent i flowen din og konfigurer den med serverens URL og transportmetode. Dette gjør det mulig for AI-agentene dine å bruke kodeutførelses- og miljøstyringsfunksjonene inne i FlowHunt.

Kan jeg isolere kodekjøring og administrere miljøer?

Ja, serveren støtter kjøring av kode i isolerte Conda- eller virtualenv-miljøer, noe som sikrer reproduserbarhet og forhindrer konflikter mellom avhengigheter.

Støtter den inkrementell kodekjøring for store kodeblokker?

Ja, serveren kan kjøre kode inkrementelt, noe som er nyttig for håndtering av kode som overskrider LLM-tokenbegrensninger.

Er det mulig å bruke Docker i stedet for Node.js?

Ja, du kan bruke den medfølgende Dockerfile og konfigurere MCP-serveren til å kjøre inni en Docker-container for ekstra isolasjon.

Prøv MCP Code Executor med FlowHunt

Gi dine flows mulighet til sikker, automatisert Python-kodekjøring. Integrer MCP Code Executor MCP Server og åpne for dynamiske arbeidsflyter for datavitenskap, automatisering og mer.

Lær mer

CodeLogic MCP Server-integrasjon
CodeLogic MCP Server-integrasjon

CodeLogic MCP Server-integrasjon

CodeLogic MCP Server kobler FlowHunt og AI-programmeringsassistenter til CodeLogic sin detaljerte programvareavhengighetsdata, og muliggjør avansert kodeanalyse...

4 min lesing
MCP AI +4
MCP-Server-Creator MCP-server
MCP-Server-Creator MCP-server

MCP-Server-Creator MCP-server

MCP-Server-Creator er en meta-server som muliggjør rask opprettelse og konfigurasjon av nye Model Context Protocol (MCP)-servere. Med dynamisk kodegenerering, v...

4 min lesing
AI MCP +5
Coda MCP Server-integrasjon
Coda MCP Server-integrasjon

Coda MCP Server-integrasjon

Coda MCP Server gir en standardisert måte for AI-assistenter å samhandle med Codas plattform, muliggjør dokumentforespørsler, arbeidsflytautomatisering og enhet...

3 min lesing
MCP AI +4