mcp-server-commands MCP 服务器

mcp-server-commands MCP 服务器

让你的 AI 代理安全运行 shell 命令,自动化工作流,获取系统诊断并与文件交互——直接通过 mcp-server-commands 在 FlowHunt 上实现。

“mcp-server-commands” MCP 服务器的作用是什么?

mcp-server-commands MCP(模型上下文协议)服务器作为 AI 助手与本地或系统命令安全执行之间的桥梁。它通过暴露一个用于运行 shell 命令的接口,使 AI 客户端能够访问外部数据、操作文件系统、执行系统诊断或直接从其环境自动化工作流。服务器会处理来自 LLM 的命令请求并返回输出,包括 STDOUTSTDERR,可用于进一步分析或操作。这提升了开发工作流的效率,使开发者和高阶用户能够通过 AI 助手完成诸如列目录、查看系统信息、运行脚本等任务,极大扩展了 AI 助手的实用能力。

Prompt 列表

  • run_command – 生成携带命令输出的 prompt 消息。

资源列表

可用文档或代码中未明确列出资源。

工具列表

  • run_command – 运行指定命令(如 hostnamels -alecho "hello world")。以文本形式返回 STDOUTSTDERR。支持可选 stdin 参数,便于向支持输入的命令传递内容(如代码或文件内容),以便脚本与文件操作。

典型用例

  • 系统诊断:运行如 hostnametop 等命令,直接从 AI 助手获取系统状态或环境详情。
  • 文件管理:列出目录(ls -al)、新建或读取文件、通过 shell 命令操作文本文件。
  • 脚本执行:通过 stdin 传递脚本或代码片段(如 Python、Bash),支持快速原型开发或自动化。
  • 开发自动化:自动化执行如拉取代码、构建项目、运行测试等重复性开发任务,由 AI 发起 shell 命令。
  • 安全命令审批:与 Claude Desktop 等工具集成,确保每条命令在执行前经过人工审核,最大程度降低安全风险。

如何部署

Windsurf

  1. 确保已安装 Node.js 和 npm。
  2. 安装 mcp-server-commands 包:
    npm install -g mcp-server-commands
    
  3. 编辑 Windsurf 配置文件,添加 MCP 服务器。
  4. 添加如下 JSON 片段:
    {
      "mcpServers": {
        "mcp-server-commands": {
          "command": "npx",
          "args": ["mcp-server-commands"]
        }
      }
    }
    
  5. 保存配置并重启 Windsurf。
  6. 验证服务器已运行并可访问。

Claude

  1. 确保已安装 Node.js 和 npm。
  2. 全局安装 mcp-server-commands
    npm install -g mcp-server-commands
    
  3. 找到 Claude Desktop 的配置文件:
    • MacOS: ~/Library/Application Support/Claude/claude_desktop_config.json
    • Windows: %APPDATA%/Claude/claude_desktop_config.json
  4. 添加如下内容:
    {
      "mcpServers": {
        "mcp-server-commands": {
          "command": "npx",
          "args": ["mcp-server-commands"]
        }
      }
    }
    
  5. 保存并重启 Claude Desktop。
  6. 确认 MCP 服务器已出现并可用。

Cursor

  1. 如有需要,先安装 Node.js 和 npm。
  2. 全局安装 mcp-server-commands
    npm install -g mcp-server-commands
    
  3. 打开 Cursor 配置文件。
  4. 插入如下内容:
    {
      "mcpServers": {
        "mcp-server-commands": {
          "command": "npx",
          "args": ["mcp-server-commands"]
        }
      }
    }
    
  5. 保存更改并重启 Cursor。
  6. 检查 MCP 服务器是否可用。

Cline

  1. 确保已安装 Node.js/npm。
  2. 安装 MCP 服务器包:
    npm install -g mcp-server-commands
    
  3. 编辑 Cline MCP 服务器配置。
  4. 添加如下内容:
    {
      "mcpServers": {
        "mcp-server-commands": {
          "command": "npx",
          "args": ["mcp-server-commands"]
        }
      }
    }
    
  5. 保存并重启 Cline。
  6. 验证 MCP 服务器连接正常。

API Key 安全配置

如需传递敏感环境变量(如 API Key),可在配置中使用 envinputs 字段:

{
  "mcpServers": {
    "mcp-server-commands": {
      "command": "npx",
      "args": ["mcp-server-commands"],
      "env": {
        "EXAMPLE_API_KEY": "${EXAMPLE_API_KEY}"
      },
      "inputs": {
        "apiKey": "${EXAMPLE_API_KEY}"
      }
    }
  }
}

EXAMPLE_API_KEY 替换为你实际的环境变量名。

在流程中如何使用 MCP

在 FlowHunt 中使用 MCP

如需将 MCP 服务器集成到 FlowHunt 工作流,首先添加 MCP 组件并连接到你的 AI 代理:

FlowHunt MCP flow

点击 MCP 组件以打开配置面板。在系统 MCP 配置部分,使用如下 JSON 格式填入你的 MCP 服务器信息:

{
  "mcp-server-commands": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

配置完成后,AI 代理即可作为工具全面使用该 MCP 的功能。请记得将 “mcp-server-commands” 替换为实际 MCP 服务器名称,并将 URL 替换为你自己的 MCP 服务器地址。


总览

分节可用性详情/备注
总览为 LLM 提供 shell 命令执行工具。
Prompt 列表run_command
资源列表未明确列出资源。
工具列表run_command
API Key 安全配置配置中支持 envinputs
采样支持(评测时不重要)文档或代码未提及。

我们的观点:
此 MCP 服务器结构简单却非常高效,能以受控方式为 LLM 提供系统 shell 访问。其文档完善,配置简便,并对安全风险有明确提示。但其功能范围较窄(仅有一个工具,无明确资源或除 run_command 外的 prompt 模板),且未包含 Roots、采样等高级 MCP 特性。总体而言,非常适合开发者通过 AI 获取 shell 访问,但扩展性有限。


MCP 评分

有 LICENSE✅ (MIT)
有至少一个工具
Fork 数量27
Star 数量159

常见问题

什么是 mcp-server-commands MCP 服务器?

它是一个 MCP 服务器,为 AI 助手暴露安全接口以执行本地或系统 shell 命令。这令 AI 客户端能够与文件系统交互,运行诊断,或通过处理命令请求并返回其输出自动化工作流。

该 MCP 服务器提供哪些工具?

主要工具是 'run_command',允许运行 shell 命令(如 'ls -al'、'echo'、'hostname')。它会返回 STDOUT 和 STDERR,并支持通过 stdin 为脚本或文件操作传递输入。

典型的使用场景有哪些?

使用场景包括系统诊断、文件管理、脚本执行、开发任务自动化和安全命令审批工作流。

如何保护 API Key 或环境变量?

可在配置中的 'env' 和 'inputs' 字段提供敏感值。建议使用环境变量以防止明文暴露密钥。

它支持采样或 Roots 等高级 MCP 特性吗?

不支持,mcp-server-commands MCP 专注于命令执行。文档中未提及高级资源管理或采样等功能。

如何在 FlowHunt 工作流中使用该 MCP 服务器?

将 MCP 组件添加到 FlowHunt 流程,并连接到你的 AI 代理。在配置中指定 MCP 服务器详情,如传输方式和 URL,即可在流程中实现 AI 驱动的命令执行。

用 FlowHunt MCP 解锁 Shell 自动化

为你的 AI 助手提供安全、可配置的 shell 访问,实现自动化、诊断和文件管理,尽在 mcp-server-commands MCP 服务器。

了解更多

DesktopCommander MCP 服务器
DesktopCommander MCP 服务器

DesktopCommander MCP 服务器

DesktopCommander MCP 服务器为像 Claude 这样的 AI 助手赋能,实现桌面自动化,提供安全的终端控制、文件系统搜索和基于差异的文件编辑,让开发者释放新一代生产力,将会话式 AI 与桌面实际操作无缝衔接。...

2 分钟阅读
AI Automation Developer Tools +4
Windows CLI MCP 服务器
Windows CLI MCP 服务器

Windows CLI MCP 服务器

Windows CLI MCP 服务器通过 SSH 将 AI 助手与 Windows 命令行界面及远程系统连接起来,为本地和远程环境提供安全、可编程的命令执行与自动化能力。...

2 分钟阅读
AI Automation +6
ssh-mcp-server:为AI工作流提供安全远程SSH
ssh-mcp-server:为AI工作流提供安全远程SSH

ssh-mcp-server:为AI工作流提供安全远程SSH

ssh-mcp-server 是一款安全的模型上下文协议(MCP)服务器,使AI助手和开发工具能够在不暴露凭证的情况下,安全地在远程服务器上执行SSH命令和传输文件。非常适合远程管理、部署自动化和在FlowHunt工作流中的文件同步。...

2 分钟阅读
SSH MCP Server +5