
mcp-server-commands MCP 服务器
mcp-server-commands MCP 服务器为 AI 助手与安全系统命令执行之间搭建桥梁,使 LLM 能够直接从 FlowHunt 及其它 AI 平台与 Shell 交互、自动化开发任务及文件管理。...
让 AI 智能体连接 Kubernetes 的 Helm 包管理器,通过自然语言自动化 Chart 创建、验证和仓库管理。
Helm Chart CLI MCP 服务器为 AI 助手和 Kubernetes 的 Helm 包管理器之间提供了桥梁。该 MCP 服务器使 AI 助手能够通过自然语言请求与 Helm 交互,实现 Helm 工作流自动化,包括安装 Charts、管理仓库和执行各种 Helm 命令。通过 Model Context Protocol 暴露 Helm 能力,开发和运维团队可以更高效地查询、管理和控制 Kubernetes 应用部署。服务器提升了开发流程,支持以编程方式或 AI 驱动交互完成如 Chart 创建、Lint 校验、仓库管理和命令自动补全等任务。
在可用文档或代码库中未提及指令模板。
在可用文档或代码库中未明示 MCP 资源。
git clone https://github.com/modelcontextprotocol/servers.git
cd src/helm
uv venv
source .venv/Scripts/Activate.ps1
uv pip install -e .
mcp-server-helm
{
"mcpServers": {
"helm-chart-cli": {
"command": "mcp-server-helm",
"args": []
}
}
}
{
"mcpServers": {
"helm-chart-cli": {
"command": "mcp-server-helm",
"args": [],
"env": {
"API_KEY": "${HELM_MCP_API_KEY}"
},
"inputs": {
"api_key": "${HELM_MCP_API_KEY}"
}
}
}
}
{
"mcpServers": {
"helm-chart-cli": {
"command": "mcp-server-helm",
"args": []
}
}
}
{
"mcpServers": {
"helm-chart-cli": {
"command": "mcp-server-helm",
"args": []
}
}
}
{
"mcpServers": {
"helm-chart-cli": {
"command": "mcp-server-helm",
"args": []
}
}
}
在 FlowHunt 中使用 MCP
要将 MCP 服务器集成到你的 FlowHunt 工作流,首先在流程中添加 MCP 组件并将其连接到你的 AI 智能体:
点击 MCP 组件打开配置面板。在系统 MCP 配置区域,按如下 JSON 格式填写你的 MCP 服务器信息:
{
"helm-chart-cli": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
配置完成后,AI 智能体即可作为工具访问 MCP 的所有功能。请注意将 “helm-chart-cli” 替换为你实际的 MCP 服务器名称,并将 URL 替换为你自己的 MCP 服务器地址。
部分 | 可用性 | 详情/说明 |
---|---|---|
概览 | ✅ | README.md 已描述概览与用途 |
指令模板列表 | ⛔ | 未找到模板 |
资源列表 | ⛔ | 未列出资源 |
工具列表 | ✅ | helm_completion、helm_create、helm_lint(来自 README.md) |
API 密钥安全 | ✅ | 安装部分有示例 |
采样支持(评估中不重要) | ⛔ | 未提及 |
综上,Helm Chart CLI MCP 服务器在工具支持和安装说明上表现扎实,但缺乏明确的资源和指令模板列表,以及 Root 或采样相关文档。整体文档实用且聚焦,适合技术用户。
有 LICENSE | ✅ (MIT) |
---|---|
至少有一个工具 | ✅ |
Fork 数量 | 2 |
Star 数量 | 6 |
评分:
该 MCP 服务器的实现注重工具暴露与安装文档,实用性强,但缺少完整 MCP 资源/指令原语和高级特性说明。综合评分 6/10——实用性高,功能齐全度略逊于最佳范例。
它是一个连接 AI 助手与 Kubernetes Helm 包管理器的服务器,允许通过自然语言请求自动化常见 Helm 任务,如 Chart 创建、Lint 校验和自动补全。
该 MCP 服务器开放了 helm_completion(Shell 自动补全脚本)、helm_create(新建 Chart 脚手架)和 helm_lint(校验 Chart 合规性)。
它让 AI 智能体自动化、简化常见 Helm 操作,减少手动错误和上下文切换,支持 Kubernetes 部署的对话式 DevOps 流程。
在 FlowHunt 流程中添加 MCP 组件,在系统 MCP 配置面板中填写服务器信息并连接至你的 AI 智能体,智能体即可编程访问所有 Helm 功能。
安全。请将 API 密钥作为环境变量存储,并按安装说明中所示在配置中引用,确保敏感数据不会被硬编码。
mcp-server-commands MCP 服务器为 AI 助手与安全系统命令执行之间搭建桥梁,使 LLM 能够直接从 FlowHunt 及其它 AI 平台与 Shell 交互、自动化开发任务及文件管理。...
终端控制器 MCP 服务器通过标准化接口,实现安全执行终端命令、目录导航和文件系统操作。它连接 AI 助手与主机环境,赋能自动化与系统级任务的安全管理。...
Kubernetes MCP 服务器连接 AI 助手与 Kubernetes 集群,实现通过标准化 MCP 命令进行 AI 驱动的自动化、资源管理和 DevOps 工作流。...