
Loki MCP 服务器
Loki MCP 服务器将 AI 助手与 Grafana Loki 连接,实现通过 Model Context Protocol 无缝查询和分析日志数据。它为基于大模型的日志探索、故障排查和仪表盘创建赋能。...

让您的 AI 智能体能够直接访问应用追踪和指标,借助 Logfire MCP 服务器在 FlowHunt 中实现快速调试、异常追踪和遥测洞察。
FlowHunt在您的内部系统和AI工具之间提供额外的安全层,让您能够精细控制从MCP服务器可访问哪些工具。托管在我们基础设施中的MCP服务器可以与FlowHunt的聊天机器人以及ChatGPT、Claude和各种AI编辑器等热门AI平台无缝集成。
Logfire MCP 服务器是一个 Model Context Protocol (MCP) 服务器,使 AI 助手和大语言模型(LLM)能够访问、检索和分析通过 OpenTelemetry 标准发送到 Logfire 的遥测数据。通过连接您的 Logfire 项目,该服务器让 AI 驱动的工具和智能体能够查询分布式追踪、检查异常模式,并通过 Logfire API 对应用的指标和追踪数据执行自定义 SQL 查询。这一集成让故障排查、可观测性和常见遥测分析任务实现自动化,为开发者提供了直接从开发环境或 AI 辅助智能体进行调试、监控和洞察生成的增强工作流。
仓库中未记录任何明确的提示词模板。
仓库中未记录任何明确的(作为 MCP 资源的)资源。
find_exceptions
获取指定时间窗口内按文件分组的追踪异常计数。
find_exceptions_in_file
提供特定文件在指定时间段内出现异常的详细追踪信息。
arbitrary_query
在 OpenTelemetry 追踪和指标上执行自定义 SQL 查询,实现灵活的数据探索。
get_logfire_records_schema
返回 OpenTelemetry 的模式,帮助用户编写更精准的自定义查询。
异常监控与分析
开发者可快速定位哪些文件产生最多异常,识别趋势,有针对性地进行调试。
根因分析
针对特定文件的异常详情下钻,加速关键问题的定位与解决。
自定义遥测报告
支持运行任意 SQL 查询,方便团队生成定制化的指标报告和仪表盘。
模式探索
通过获取 OpenTelemetry 模式,开发者能更好理解可用数据字段,优化自定义查询与集成。
暂无 Windsurf 的设置指引。
{
"command": ["uvx"],
"args": ["logfire-mcp"],
"type": "stdio",
"env": {
"LOGFIRE_READ_TOKEN": "YOUR_TOKEN"
}
}
"YOUR_TOKEN"。API 密钥安全提示:
如上所示,将令牌存放在 env 部分,以避免出现在参数和源码管理中。
uv。.cursor/mcp.json 文件。{
"mcpServers": {
"logfire": {
"command": "uvx",
"args": ["logfire-mcp", "--read-token=YOUR-TOKEN"]
}
}
}
"YOUR-TOKEN"。注意: Cursor 不支持 env 字段,请直接使用 --read-token 参数。
cline_mcp_settings.json。{
"mcpServers": {
"logfire": {
"command": "uvx",
"args": ["logfire-mcp"],
"env": {
"LOGFIRE_READ_TOKEN": "YOUR_TOKEN"
},
"disabled": false,
"autoApprove": []
}
}
}
"YOUR_TOKEN"。API 密钥安全提示:
令牌通过配置文件的 env 字段来安全存储。
暂无 Windsurf 的设置指引。
在 FlowHunt 中使用 MCP
如需将 MCP 服务器集成到 FlowHunt 工作流,请先在流程中添加 MCP 组件并连接到您的 AI 智能体:
点击 MCP 组件打开配置面板。在系统 MCP 配置区,按如下 JSON 格式填写您的 MCP 服务器信息:
{
"logfire": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
配置完成后,AI 智能体即可作为工具调用此 MCP 的所有功能。请记得将 "logfire" 替换为实际 MCP 服务器名称,并用您的 MCP 服务地址替换 URL。
| 部分 | 可用性 | 详情/备注 |
|---|---|---|
| 概览 | ✅ | |
| 提示词列表 | ⛔ | 未记录任何提示词模板。 |
| 资源列表 | ⛔ | 未记录任何资源。 |
| 工具列表 | ✅ | 已记录 4 个工具:异常、查询与模式访问。 |
| API 密钥安全 | ✅ | 提供了环境变量与配置 JSON 示例。 |
| 采样支持(评估时不重要) | ⛔ | 未提及采样支持。 |
综上,Logfire MCP 服务器是一个专注于可观测性、具备生产质量的 MCP 服务器,但未提供提示词模板、资源、根或采样支持的文档。它在遥测与调试领域暴露了少量高价值工具,表现优异。综合评分:6/10 —— 在其用例中表现出色,但不是一个完整的 MCP 参考实现。
| 是否有 LICENSE | ⛔(未发现 LICENSE 文件) |
|---|---|
| 至少有一个工具 | ✅ |
| Fork 数量 | 9 |
| Star 数量 | 77 |
Logfire MCP 服务器让 AI 智能体和大语言模型能够访问并分析通过 OpenTelemetry 收集的遥测数据(追踪、指标、异常),借助 Logfire API 实现实时可观测性与故障排查。
Logfire MCP 提供异常计数及下钻(find_exceptions、find_exceptions_in_file)、遥测数据自定义 SQL 查询(arbitrary_query)、以及模式发现(get_logfire_records_schema)等工具。
请将 Logfire 读取令牌存储在环境变量(Claude 和 Cline 的 config 文件的 env 字段)或 Cursor 的 CLI 参数中。避免将令牌硬编码到受版本控制的文件。
常见用例包括异常监控、根因分析、自定义遥测报告与模式探索——所有这些都可通过 FlowHunt 的 MCP 集成让 AI 智能体访问。
在 FlowHunt 流程中添加 MCP 组件,配置 Logfire MCP 服务器信息,即可让 AI 智能体对应用的遥测数据进行查询和分析。
将 Logfire MCP 服务器与 FlowHunt 集成,解锁实时遥测查询、异常洞察和自定义报告,赋能您的 AI 工作流。
Loki MCP 服务器将 AI 助手与 Grafana Loki 连接,实现通过 Model Context Protocol 无缝查询和分析日志数据。它为基于大模型的日志探索、故障排查和仪表盘创建赋能。...
Datadog MCP服务器连接了FlowHunt与Datadog的API,实现了基于AI的监控数据、仪表盘、指标、事件和日志的访问,助力高级可观测性与自动化事件管理。...
MariaDB MCP 服务器为 AI 助手提供对 MariaDB 数据库的安全只读访问,支持工作流自动化、数据分析和商业智能,能够公开模式信息并支持 SELECT 查询,且不会影响数据库的完整性。...
Cookie 同意
我们使用 cookie 来增强您的浏览体验并分析我们的流量。 See our privacy policy.


