
MCP-Server-Creator MCP 服务器
MCP-Server-Creator 是一个元服务器,可以快速创建和配置新的模型上下文协议(MCP)服务器。通过动态代码生成、工具构建和资源管理,它简化了自定义 AI 连接与集成服务器的开发,帮助技术团队自动化工作流程并加速部署。...

在 FlowHunt 流程中,借助 MCP 代码执行器 MCP 服务器直接运行 Python 代码、安装依赖并管理隔离环境。
FlowHunt在您的内部系统和AI工具之间提供额外的安全层,让您能够精细控制从MCP服务器可访问哪些工具。托管在我们基础设施中的MCP服务器可以与FlowHunt的聊天机器人以及ChatGPT、Claude和各种AI编辑器等热门AI平台无缝集成。
MCP 代码执行器是一款 MCP(模型上下文协议)服务器,使语言模型(LLM)能够在指定的 Python 环境(如 Conda、virtualenv 或 UV virtualenv)中执行 Python 代码。通过将 AI 助手连接到真实可执行的 Python 环境,赋予其执行代码、管理库、动态配置环境等多种开发能力。该服务器支持增量代码生成以突破 token 限制,允许实时安装依赖,并便于运行时配置执行环境。开发者可借助此工具自动化代码评估、试验新包,并在可控安全的环境中管理计算任务。
仓库或文档中未列出明确的指令模板。
仓库或文档中未描述具体资源。
{
"mcpServers": {
"mcp-code-executor": {
"command": "node",
"args": [
"/path/to/mcp_code_executor/build/index.js"
],
"env": {
"CODE_STORAGE_DIR": "/path/to/code/storage",
"ENV_TYPE": "conda",
"CONDA_ENV_NAME": "your-conda-env"
}
}
}
}
{
"mcpServers": {
"mcp-code-executor": {
"env": {
"CODE_STORAGE_DIR": "/path/to/code/storage",
"ENV_TYPE": "conda",
"CONDA_ENV_NAME": "your-conda-env",
"MY_SECRET_API_KEY": "${MY_SECRET_API_KEY}"
},
"inputs": {
"apiKey": "${MY_SECRET_API_KEY}"
}
}
}
}
{
"mcpServers": {
"mcp-code-executor": {
"command": "node",
"args": [
"/path/to/mcp_code_executor/build/index.js"
],
"env": {
"CODE_STORAGE_DIR": "/path/to/code/storage",
"ENV_TYPE": "conda",
"CONDA_ENV_NAME": "your-conda-env"
}
}
}
}
{
"mcpServers": {
"mcp-code-executor": {
"command": "node",
"args": [
"/path/to/mcp_code_executor/build/index.js"
],
"env": {
"CODE_STORAGE_DIR": "/path/to/code/storage",
"ENV_TYPE": "conda",
"CONDA_ENV_NAME": "your-conda-env"
}
}
}
}
{
"mcpServers": {
"mcp-code-executor": {
"command": "node",
"args": [
"/path/to/mcp_code_executor/build/index.js"
],
"env": {
"CODE_STORAGE_DIR": "/path/to/code/storage",
"ENV_TYPE": "conda",
"CONDA_ENV_NAME": "your-conda-env"
}
}
}
}
注意: 也可以使用 Docker。提供的 Dockerfile 已针对
venv-uv环境类型测试:
{
"mcpServers": {
"mcp-code-executor": {
"command": "docker",
"args": [
"run",
"-i",
"--rm",
"mcp-code-executor"
]
}
}
}
在 FlowHunt 中集成 MCP
要将 MCP 服务器集成到 FlowHunt 工作流,请首先将 MCP 组件添加到流程并连接到您的 AI 代理:
点击 MCP 组件打开配置面板。在系统 MCP 配置部分,按如下 JSON 格式插入您的 MCP 服务器信息:
{
"mcp-code-executor": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
配置完成后,AI 代理即可将此 MCP 作为工具,使用其全部功能。请记得将 “mcp-code-executor” 替换为实际的 MCP 服务器名称,并将 URL 替换为您自己的 MCP 服务器地址。
| 部分 | 可用性 | 详情/备注 |
|---|---|---|
| 概览 | ✅ | |
| 指令模板列表 | ⛔ | 未找到指令模板 |
| 资源列表 | ⛔ | 未描述具体资源 |
| 工具列表 | ✅ | execute_code, install_dependencies, check_installed_packages |
| API 密钥安全 | ✅ | 提供了 env 输入示例 |
| 采样支持(评测时用处较小) | ⛔ | 未指定 |
该 MCP 服务器为代码执行与 LLM 集成提供了基本且强大的功能,并配有清晰的安装说明和工具。但其缺少指令模板、明确的资源和采样支持等信息。作为专注于代码执行的 MCP,实用性和集成便捷性非常出色,但在高级 MCP 特性和文档完整性上略有欠缺。
| 是否有 LICENSE | ✅(MIT) |
|---|---|
| 至少有一个工具 | ✅ |
| Fork 数量 | 25 |
| Star 数量 | 144 |
它是一种模型上下文协议(MCP)服务器,允许语言模型在安全、隔离的环境(如 Conda 或 venv)中执行 Python 代码,管理依赖并配置运行环境。非常适用于代码评估、数据科学、自动化工作流以及与 FlowHunt 的动态环境搭建。
它提供用于执行 Python 代码(`execute_code`)、动态安装依赖(`install_dependencies`)和检查已安装包(`check_installed_packages`)的工具。
将 MCP 代码执行器作为 MCP 组件添加到您的流程中,并配置服务器的 URL 和传输方式。这样您的 AI 代理即可在 FlowHunt 内使用其代码执行和环境管理能力。
可以,服务器支持在隔离的 Conda 或 virtualenv 环境中运行代码,确保结果可复现且依赖不冲突。
支持,服务器能够增量执行代码,非常适合处理超出 LLM token 限制的大型代码。
可以,您可使用提供的 Dockerfile,将 MCP 服务器配置为在 Docker 容器内运行,以获得更强的隔离性。
为您的流程赋能,安全自动化执行 Python 代码。集成 MCP 代码执行器 MCP 服务器,解锁数据科学、自动化等领域的动态工作流。
MCP-Server-Creator 是一个元服务器,可以快速创建和配置新的模型上下文协议(MCP)服务器。通过动态代码生成、工具构建和资源管理,它简化了自定义 AI 连接与集成服务器的开发,帮助技术团队自动化工作流程并加速部署。...
Coda MCP 服务器为 AI 助手与 Coda 平台交互提供了标准化方式,实现文档查询、工作流自动化和统一协议兼容性,从而与 FlowHunt 及其他 AI 代理无缝集成。...
JupyterMCP 通过模型上下文协议(MCP)实现 Jupyter Notebook(6.x)与 AI 助手的无缝集成。利用 LLM 自动执行代码、管理单元格和获取输出,简化数据科学工作流程并提升生产力。...
Cookie 同意
我们使用 cookie 来增强您的浏览体验并分析我们的流量。 See our privacy policy.


