
MCP-Server-Creator MCP 服务器
MCP-Server-Creator 是一个元服务器,可以快速创建和配置新的模型上下文协议(MCP)服务器。通过动态代码生成、工具构建和资源管理,它简化了自定义 AI 连接与集成服务器的开发,帮助技术团队自动化工作流程并加速部署。...
在 FlowHunt 流程中,借助 MCP 代码执行器 MCP 服务器直接运行 Python 代码、安装依赖并管理隔离环境。
MCP 代码执行器是一款 MCP(模型上下文协议)服务器,使语言模型(LLM)能够在指定的 Python 环境(如 Conda、virtualenv 或 UV virtualenv)中执行 Python 代码。通过将 AI 助手连接到真实可执行的 Python 环境,赋予其执行代码、管理库、动态配置环境等多种开发能力。该服务器支持增量代码生成以突破 token 限制,允许实时安装依赖,并便于运行时配置执行环境。开发者可借助此工具自动化代码评估、试验新包,并在可控安全的环境中管理计算任务。
仓库或文档中未列出明确的指令模板。
仓库或文档中未描述具体资源。
{
"mcpServers": {
"mcp-code-executor": {
"command": "node",
"args": [
"/path/to/mcp_code_executor/build/index.js"
],
"env": {
"CODE_STORAGE_DIR": "/path/to/code/storage",
"ENV_TYPE": "conda",
"CONDA_ENV_NAME": "your-conda-env"
}
}
}
}
{
"mcpServers": {
"mcp-code-executor": {
"env": {
"CODE_STORAGE_DIR": "/path/to/code/storage",
"ENV_TYPE": "conda",
"CONDA_ENV_NAME": "your-conda-env",
"MY_SECRET_API_KEY": "${MY_SECRET_API_KEY}"
},
"inputs": {
"apiKey": "${MY_SECRET_API_KEY}"
}
}
}
}
{
"mcpServers": {
"mcp-code-executor": {
"command": "node",
"args": [
"/path/to/mcp_code_executor/build/index.js"
],
"env": {
"CODE_STORAGE_DIR": "/path/to/code/storage",
"ENV_TYPE": "conda",
"CONDA_ENV_NAME": "your-conda-env"
}
}
}
}
{
"mcpServers": {
"mcp-code-executor": {
"command": "node",
"args": [
"/path/to/mcp_code_executor/build/index.js"
],
"env": {
"CODE_STORAGE_DIR": "/path/to/code/storage",
"ENV_TYPE": "conda",
"CONDA_ENV_NAME": "your-conda-env"
}
}
}
}
{
"mcpServers": {
"mcp-code-executor": {
"command": "node",
"args": [
"/path/to/mcp_code_executor/build/index.js"
],
"env": {
"CODE_STORAGE_DIR": "/path/to/code/storage",
"ENV_TYPE": "conda",
"CONDA_ENV_NAME": "your-conda-env"
}
}
}
}
注意: 也可以使用 Docker。提供的 Dockerfile 已针对
venv-uv
环境类型测试:
{
"mcpServers": {
"mcp-code-executor": {
"command": "docker",
"args": [
"run",
"-i",
"--rm",
"mcp-code-executor"
]
}
}
}
在 FlowHunt 中集成 MCP
要将 MCP 服务器集成到 FlowHunt 工作流,请首先将 MCP 组件添加到流程并连接到您的 AI 代理:
点击 MCP 组件打开配置面板。在系统 MCP 配置部分,按如下 JSON 格式插入您的 MCP 服务器信息:
{
"mcp-code-executor": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
配置完成后,AI 代理即可将此 MCP 作为工具,使用其全部功能。请记得将 “mcp-code-executor” 替换为实际的 MCP 服务器名称,并将 URL 替换为您自己的 MCP 服务器地址。
部分 | 可用性 | 详情/备注 |
---|---|---|
概览 | ✅ | |
指令模板列表 | ⛔ | 未找到指令模板 |
资源列表 | ⛔ | 未描述具体资源 |
工具列表 | ✅ | execute_code, install_dependencies, check_installed_packages |
API 密钥安全 | ✅ | 提供了 env 输入示例 |
采样支持(评测时用处较小) | ⛔ | 未指定 |
该 MCP 服务器为代码执行与 LLM 集成提供了基本且强大的功能,并配有清晰的安装说明和工具。但其缺少指令模板、明确的资源和采样支持等信息。作为专注于代码执行的 MCP,实用性和集成便捷性非常出色,但在高级 MCP 特性和文档完整性上略有欠缺。
是否有 LICENSE | ✅(MIT) |
---|---|
至少有一个工具 | ✅ |
Fork 数量 | 25 |
Star 数量 | 144 |
它是一种模型上下文协议(MCP)服务器,允许语言模型在安全、隔离的环境(如 Conda 或 venv)中执行 Python 代码,管理依赖并配置运行环境。非常适用于代码评估、数据科学、自动化工作流以及与 FlowHunt 的动态环境搭建。
它提供用于执行 Python 代码(`execute_code`)、动态安装依赖(`install_dependencies`)和检查已安装包(`check_installed_packages`)的工具。
将 MCP 代码执行器作为 MCP 组件添加到您的流程中,并配置服务器的 URL 和传输方式。这样您的 AI 代理即可在 FlowHunt 内使用其代码执行和环境管理能力。
可以,服务器支持在隔离的 Conda 或 virtualenv 环境中运行代码,确保结果可复现且依赖不冲突。
支持,服务器能够增量执行代码,非常适合处理超出 LLM token 限制的大型代码。
可以,您可使用提供的 Dockerfile,将 MCP 服务器配置为在 Docker 容器内运行,以获得更强的隔离性。
为您的流程赋能,安全自动化执行 Python 代码。集成 MCP 代码执行器 MCP 服务器,解锁数据科学、自动化等领域的动态工作流。
MCP-Server-Creator 是一个元服务器,可以快速创建和配置新的模型上下文协议(MCP)服务器。通过动态代码生成、工具构建和资源管理,它简化了自定义 AI 连接与集成服务器的开发,帮助技术团队自动化工作流程并加速部署。...
Coda MCP 服务器为 AI 助手与 Coda 平台交互提供了标准化方式,实现文档查询、工作流自动化和统一协议兼容性,从而与 FlowHunt 及其他 AI 代理无缝集成。...
JupyterMCP 通过模型上下文协议(MCP)实现 Jupyter Notebook(6.x)与 AI 助手的无缝集成。利用 LLM 自动执行代码、管理单元格和获取输出,简化数据科学工作流程并提升生产力。...