Grafana MCP 服务器集成

Grafana DevOps Observability AI Integration

联系我们在FlowHunt托管您的MCP服务器

FlowHunt在您的内部系统和AI工具之间提供额外的安全层,让您能够精细控制从MCP服务器可访问哪些工具。托管在我们基础设施中的MCP服务器可以与FlowHunt的聊天机器人以及ChatGPT、Claude和各种AI编辑器等热门AI平台无缝集成。

“Grafana” MCP 服务器的作用是什么?

Grafana MCP(模型上下文协议)服务器是一个集成层,将 AI 助手与 Grafana 连接起来,使其能够增强对 Grafana 生态系统内的仪表盘、数据源和监控工具的访问。通过 MCP 暴露 Grafana 的能力,该服务器允许 AI 驱动的客户端执行诸如搜索仪表盘、获取详细仪表盘信息、管理仪表盘、访问和查询数据源,以及以编程方式执行 Prometheus 查询等任务。这让开发和运维工作流更加高效,AI 助手可以直接与可观测性数据交互,自动化仪表盘管理,并在 AI 驱动的开发环境中实现实时监控和故障排查。

指令模板列表

在提供的文件或文档中未提及具体的指令模板。

Logo

准备好发展您的业务了吗?

今天开始免费试用,几天内即可看到结果。

资源列表

  • 仪表盘:可按标题或元数据访问和搜索 Grafana 仪表盘,通过唯一标识符获取完整仪表盘详情,并管理仪表盘内容。
  • 数据源:列出所有已配置的数据源,并获取每个数据源的详细信息,特别支持 Prometheus 和 Loki。
  • Prometheus 数据源信息:获取和交互 Prometheus 数据源的信息,包括查询能力。
  • 面板查询:从仪表盘中的每个面板提取查询语句和数据源信息,便于高级分析或排查。

工具列表

  • 搜索仪表盘:按标题或元数据搜索 Grafana 仪表盘。
  • 通过 UID 获取仪表盘:利用唯一标识符获取指定仪表盘的详细信息。
  • 更新或新建仪表盘:修改或新建仪表盘(请注意上下文窗口限制)。
  • 获取面板查询与数据源信息:获取仪表盘各面板的查询语句和数据源详情。
  • 列出并获取数据源信息:列出所有已配置数据源并获取信息(如 Prometheus、Loki)。
  • 查询 Prometheus:对 Prometheus 数据源执行 PromQL 查询(即时或区间查询)。

典型应用场景

  • 仪表盘管理:自动化搜索、获取、创建和更新 Grafana 仪表盘,简化开发和 SRE 的可观测性工作流。
  • 数据源探索:以编程方式列举、获取和分析可用数据源,辅助基础设施审计或新成员入职。
  • 面板查询提取:从仪表盘面板中提取查询和数据源信息,便于调试、优化或文档记录。
  • 自动化 Prometheus 查询:让 AI 助手能够执行 Prometheus 查询,支持即时或区间指标查询,用于监控和告警。
  • DevOps 自动化:将 Grafana 可观测性能力集成至 CI/CD 流水线或 AI 驱动的故障排查,减少人工仪表盘操作。

如何设置

Windsurf

  1. 确保已安装 Node.js 和 Docker 等前置条件。
  2. 找到你的 Windsurf 配置文件(通常为 windsurf.config.json)。
  3. 使用以下 JSON 片段添加 Grafana MCP 服务器
    {
      "mcpServers": {
        "grafana-mcp": {
          "command": "npx",
          "args": ["@grafana/mcp-grafana@latest"]
        }
      }
    }
    
  4. 保存配置并重启 Windsurf。
  5. 通过检查 MCP 服务器列表,确认设置已生效。

API 密钥安全示例

{
  "mcpServers": {
    "grafana-mcp": {
      "command": "npx",
      "args": ["@grafana/mcp-grafana@latest"],
      "env": {
        "GRAFANA_API_KEY": "${GRAFANA_API_KEY}"
      },
      "inputs": {
        "grafana_url": "https://your-grafana-instance"
      }
    }
  }
}

Claude

  1. 如有需要,安装前置条件(Node.js、Docker)。
  2. 打开 Claude 配置文件。
  3. 插入 MCP 服务器配置:
    {
      "mcpServers": {
        "grafana-mcp": {
          "command": "npx",
          "args": ["@grafana/mcp-grafana@latest"]
        }
      }
    }
    
  4. 保存并重启 Claude。
  5. 在 Claude 的 MCP 服务器状态视图中确认注册。

Cursor

  1. 准备好你的运行环境(Node.js/Docker)。
  2. 编辑 cursor.config.json 文件。
  3. 添加以下 MCP 服务器 JSON 块:
    {
      "mcpServers": {
        "grafana-mcp": {
          "command": "npx",
          "args": ["@grafana/mcp-grafana@latest"]
        }
      }
    }
    
  4. 保存文件并重启 Cursor。
  5. 确保 MCP 服务器正常运行并可访问。

Cline

  1. 确认已安装所有必要的前置条件。
  2. 打开 Cline 配置文件。
  3. 插入 Grafana MCP 服务器配置:
    {
      "mcpServers": {
        "grafana-mcp": {
          "command": "npx",
          "args": ["@grafana/mcp-grafana@latest"]
        }
      }
    }
    
  4. 保存更改并重启 Cline。
  5. 在 Cline 界面检查服务器状态。

API 密钥安全示例

{
  "mcpServers": {
    "grafana-mcp": {
      "command": "npx",
      "args": ["@grafana/mcp-grafana@latest"],
      "env": {
        "GRAFANA_API_KEY": "${GRAFANA_API_KEY}"
      },
      "inputs": {
        "grafana_url": "https://your-grafana-instance"
      }
    }
  }
}

如何在流程中使用 MCP

在 FlowHunt 中使用 MCP

要将 MCP 服务器集成进你的 FlowHunt 工作流,首先添加 MCP 组件,并将其连接到你的 AI agent:

FlowHunt MCP flow

点击 MCP 组件,打开配置面板。在系统 MCP 配置区域,按以下 JSON 格式填写你的 MCP 服务器信息:

{
  "grafana-mcp": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

配置完成后,AI agent 就可以将此 MCP 作为工具,访问其全部功能。请记得将 “grafana-mcp” 替换为你的实际 MCP 服务器名称,并将 URL 替换为你自己的 MCP 服务器地址。


概览

部分是否可用详情/备注
概览
指令模板列表仓库/文件未提及指令模板
资源列表仪表盘、数据源、面板查询、Prometheus
工具列表仪表盘搜索、更新、数据源、查询工具
API 密钥安全已提供环境变量配置示例
采样支持(评测时不重要)未提及

综上,Grafana MCP 服务器在部署文档上非常完善,涵盖了核心 MCP 原语(资源、工具、API 密钥安全),但缺乏明确的指令模板和采样支持说明。对于 Grafana 用户和开发者来说,是一个实用性极强的项目。


MCP 评分

是否有 LICENSE✅ Apache-2.0
至少有一个工具
Fork 数量82
Star 数量951

常见问题

用 Grafana MCP 释放可观测性的强大力量

通过与 FlowHunt 的 MCP 服务器集成 Grafana,利用 AI 实现仪表盘管理和监控自动化。立即体验无缝、智能的可观测性。

了解更多

Grafana MCP
Grafana MCP

Grafana MCP

将 FlowHunt 与 Grafana MCP 集成,实现仪表盘管理自动化、事件响应、告警及安全访问。为您的可观测性体系引入 AI 驱动的工作流,实现实时监控、统一运维和精细化基于角色的权限控制。...

2 分钟阅读
AI Grafana +5
Kibana MCP 服务器集成
Kibana MCP 服务器集成

Kibana MCP 服务器集成

Kibana MCP 服务器将 AI 助手与 Kibana 连接起来,实现通过标准化的模型上下文协议(Model Context Protocol)进行自动化搜索、仪表盘管理、告警监控和报表生成,助力强大且由 AI 驱动的工作流。...

2 分钟阅读
AI Kibana +6
Gravitino MCP 服务器集成
Gravitino MCP 服务器集成

Gravitino MCP 服务器集成

Gravitino MCP 服务器连接 AI 助手与 Apache Gravitino,实现无缝的元数据管理、目录发现和工作流自动化,并通过标准化 API 访问。...

2 分钟阅读
AI MCP +4