MCP Code Executor MCP Server

MCP Code Executor MCP Server

Kör Python-kod, installera beroenden och hantera isolerade miljöer direkt i dina FlowHunt-flöden med MCP Code Executor MCP Server.

Vad gör “MCP Code Executor” MCP Server?

MCP Code Executor är en MCP (Model Context Protocol)-server som gör det möjligt för språkmodeller (LLMs) att köra Pythonkod inom en angiven Pythonmiljö, såsom Conda, virtualenv eller UV virtualenv. Genom att koppla AI-assistenter till verkliga, körbara Pythonmiljöer ger den dem möjlighet att utföra en mängd olika utvecklingsuppgifter som kräver kodkörning, bibliotekshantering och dynamisk miljöuppsättning. Denna server stöder inkrementell kodgenerering för att kringgå tokenbegränsningar, möjliggör installation av beroenden i farten och underlättar körningskonfiguration av exekveringsmiljön. Utvecklare kan använda detta verktyg för att automatisera kodevaluering, experimentera med nya paket och hantera beräkningar i en kontrollerad och säker miljö.

Lista över Promptar

Inga explicita promptmallar listas i arkivet eller dokumentationen.

Lista över Resurser

Inga specifika resurser beskrivs i arkivet eller dokumentationen.

Lista över Verktyg

  • execute_code
    • Kör Pythonkod i den konfigurerade miljön. Lämplig för att köra korta kodsnuttar och skript.
  • install_dependencies
    • Installerar angivna Pythonpaket i den aktuella miljön, vilket möjliggör dynamisk inkludering av bibliotek vid behov.
  • check_installed_packages
    • Kontrollerar vilka Pythonpaket som för närvarande är installerade i miljön.

Användningsområden för denna MCP Server

  • Automatiserad Kodevaluering
    • LLMs kan köra och testa Pythonkodsnuttar direkt, vilket är användbart i utbildnings-, gransknings- eller felsökningssammanhang.
  • Dynamisk Beroendehantering
    • Installerar nödvändiga paket vid behov och gör det möjligt för LLMs att anpassa körmiljön för specialiserade uppgifter eller bibliotek.
  • Miljöisolering
    • Kör kod i isolerade Conda- eller virtualenv-miljöer, vilket säkerställer reproducerbarhet och förhindrar beroendekonflikter.
  • Inkrementell Kodgenerering
    • Stöder inkrementell kodkörning, vilket möjliggör hantering av stora kodblock som kan överskrida tokenbegränsningen i ett enskilt LLM-svar.
  • Data Science och Analys
    • Gör det möjligt för AI-agenter att utföra dataanalys, köra simuleringar eller visualisera resultat genom att köra kod med vanliga vetenskapliga Pythonbibliotek.

Hur man sätter upp det

Windsurf

  1. Säkerställ att Node.js är installerat.
  2. Klona MCP Code Executor-arkivet och bygg projektet.
  3. Lokalisera din MCP-servrars konfigurationsfil.
  4. Lägg till MCP Code Executor-servern med följande JSON-snutt:
    {
      "mcpServers": {
        "mcp-code-executor": {
          "command": "node",
          "args": [
            "/path/to/mcp_code_executor/build/index.js"
          ],
          "env": {
            "CODE_STORAGE_DIR": "/path/to/code/storage",
            "ENV_TYPE": "conda",
            "CONDA_ENV_NAME": "your-conda-env"
          }
        }
      }
    }
    
  5. Spara filen och starta om Windsurf. Kontrollera att servern är tillgänglig.

Skydda API-nycklar (exempel med miljövariabler)

{
  "mcpServers": {
    "mcp-code-executor": {
      "env": {
        "CODE_STORAGE_DIR": "/path/to/code/storage",
        "ENV_TYPE": "conda",
        "CONDA_ENV_NAME": "your-conda-env",
        "MY_SECRET_API_KEY": "${MY_SECRET_API_KEY}"
      },
      "inputs": {
        "apiKey": "${MY_SECRET_API_KEY}"
      }
    }
  }
}

Claude

  1. Säkerställ att Node.js är installerat.
  2. Bygg MCP Code Executor enligt instruktionerna i arkivet.
  3. Öppna konfigurationsfilen för Claudes MCP-servrar.
  4. Infoga följande konfiguration:
    {
      "mcpServers": {
        "mcp-code-executor": {
          "command": "node",
          "args": [
            "/path/to/mcp_code_executor/build/index.js"
          ],
          "env": {
            "CODE_STORAGE_DIR": "/path/to/code/storage",
            "ENV_TYPE": "conda",
            "CONDA_ENV_NAME": "your-conda-env"
          }
        }
      }
    }
    
  5. Spara och starta om Claude. Kontrollera att servern listas.

Cursor

  1. Installera Node.js.
  2. Klona och bygg MCP Code Executor-arkivet.
  3. Redigera Cursors MCP-konfiguration.
  4. Lägg till:
    {
      "mcpServers": {
        "mcp-code-executor": {
          "command": "node",
          "args": [
            "/path/to/mcp_code_executor/build/index.js"
          ],
          "env": {
            "CODE_STORAGE_DIR": "/path/to/code/storage",
            "ENV_TYPE": "conda",
            "CONDA_ENV_NAME": "your-conda-env"
          }
        }
      }
    }
    
  5. Spara och starta om Cursor. Testa genom att köra ett exempel på kodkörning.

Cline

  1. Kontrollera att Node.js är tillgängligt.
  2. Bygg MCP Code Executor enligt README-instruktionerna.
  3. Lokalisera Clines konfigurationsfil för MCP-servrar.
  4. Lägg till:
    {
      "mcpServers": {
        "mcp-code-executor": {
          "command": "node",
          "args": [
            "/path/to/mcp_code_executor/build/index.js"
          ],
          "env": {
            "CODE_STORAGE_DIR": "/path/to/code/storage",
            "ENV_TYPE": "conda",
            "CONDA_ENV_NAME": "your-conda-env"
          }
        }
      }
    }
    
  5. Spara och starta om Cline. Kontrollera att MCP-servern är aktiv.

Obs! Du kan även använda Docker. Den medföljande Dockerfilen är testad för venv-uv miljötyp:

{
  "mcpServers": {
    "mcp-code-executor": {
      "command": "docker",
      "args": [
        "run",
        "-i",
        "--rm",
        "mcp-code-executor"
      ]
    }
  }
}

Hur man använder denna MCP i flöden

Att använda MCP i FlowHunt

För att integrera MCP-servrar i ditt FlowHunt-arbetsflöde, börja med att lägga till MCP-komponenten i ditt flöde och koppla den till din AI-agent:

FlowHunt MCP flow

Klicka på MCP-komponenten för att öppna konfigurationspanelen. I systemets MCP-konfigurationssektion, ange dina MCP-serveruppgifter enligt detta JSON-format:

{
  "mcp-code-executor": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

När det är konfigurerat kan AI-agenten nu använda denna MCP som ett verktyg med tillgång till alla dess funktioner och kapaciteter. Kom ihåg att ändra “mcp-code-executor” till det faktiska namnet på din MCP-server och ersätta URL:en med din egen MCP-server-URL.


Översikt

SektionTillgänglighetDetaljer/Noteringar
Översikt
Lista över PromptarInga promptmallar hittades
Lista över ResurserInga explicita resurser beskrivna
Lista över Verktygexecute_code, install_dependencies, check_installed_packages
Skydda API-nycklarExempel ges med env-inputs
Samplingstöd (mindre viktigt vid utvärdering)Ej specificerat

Vår åsikt

Denna MCP-server erbjuder grundläggande och robust funktionalitet för kodkörning med LLM-integration, samt tydliga installationsinstruktioner och verktyg. Dock saknas promptmallar, explicita resurser och information om rötter eller samplingstöd. För en kodkörningsfokuserad MCP är den mycket solid, får höga poäng för praktisk nytta och lätt att integrera, men tappar några poäng för avsaknad av avancerade MCP-funktioner och dokumentationskomplettering.

MCP-poäng

Har LICENSE✅ (MIT)
Har minst ett verktyg
Antal Forks25
Antal Stjärnor144

Vanliga frågor

Vad är MCP Code Executor MCP Server?

Det är en Model Context Protocol (MCP)-server som gör det möjligt för språkmodeller att köra Pythonkod i säkra, isolerade miljöer (såsom Conda eller venv), hantera beroenden och konfigurera körmiljöer. Perfekt för kodevaluering, data science, automatiserade arbetsflöden och dynamisk miljöuppsättning med FlowHunt.

Vilka verktyg tillhandahåller denna MCP-server?

Den tillhandahåller verktyg för att köra Pythonkod (`execute_code`), installera beroenden vid behov (`install_dependencies`) och kontrollera installerade paket (`check_installed_packages`).

Hur integrerar jag denna server med FlowHunt?

Lägg till MCP Code Executor som en MCP-komponent i ditt flöde och konfigurera den med din servers URL och transportmetod. Detta gör det möjligt för dina AI-agenter att använda dess kodkörnings- och miljöhanteringsfunktioner i FlowHunt.

Kan jag isolera kodkörning och hantera miljöer?

Ja, servern stöder att köra kod i isolerade Conda- eller virtualenv-miljöer, vilket säkerställer reproducerbarhet och förhindrar konflikter mellan beroenden.

Stöder den inkrementell kodkörning för stora kodblock?

Ja, servern kan köra kod inkrementellt, vilket är användbart för att hantera kod som överskrider LLM:s tokenbegränsningar.

Är det möjligt att använda Docker istället för Node.js?

Ja, du kan använda den medföljande Dockerfilen och konfigurera MCP-servern så att den körs inuti en Docker-container för extra isolering.

Testa MCP Code Executor med FlowHunt

Stärk dina flöden med säker, automatiserad Pythonkodkörning. Integrera MCP Code Executor MCP Server och lås upp dynamiska arbetsflöden för data science, automatisering och mer.

Lär dig mer

MCP-Server-Creator MCP-server
MCP-Server-Creator MCP-server

MCP-Server-Creator MCP-server

MCP-Server-Creator är en meta-server som möjliggör snabb skapande och konfiguration av nya Model Context Protocol (MCP) servrar. Med dynamisk kodgenerering, ver...

4 min läsning
AI MCP +5
CodeLogic MCP Server-integration
CodeLogic MCP Server-integration

CodeLogic MCP Server-integration

CodeLogic MCP-servern kopplar samman FlowHunt och AI-programmeringsassistenter med CodeLogic:s detaljerade programvaruberoendedata, vilket möjliggör avancerad k...

4 min läsning
MCP AI +4
Codacy MCP Server-integration
Codacy MCP Server-integration

Codacy MCP Server-integration

Codacy MCP Server fungerar som en brygga mellan AI-assistenter och Codacy-plattformen, vilket möjliggör automatiserad kodkvalitet, säkerhetsanalys, repository-h...

4 min läsning
AI Code Quality +4