
模型上下文协议 (MCP) 服务器
模型上下文协议(MCP)服务器将 AI 助手与外部数据源、API 和服务连接起来,实现复杂工作流的无缝集成,并在 FlowHunt 中安全管理开发任务。...
将您的 AI 代理连接到 Axiom,实现实时数据查询与自动化分析。Axiom MCP 服务器为 FlowHunt 架起强大的数据驱动洞见的桥梁,使 AI 对话更具交互性和信息性。
Axiom MCP(模型上下文协议)服务器是一个实现,允许 AI 助手通过模型上下文协议直接与 Axiom 数据平台交互。它使 AI 代理能够执行 Axiom 处理语言(APL)查询并列出可用数据集,有效地将对话式 AI 与实时数据分析相结合。通过此集成,开发者和 AI 系统可直接查询结构化数据、获取分析结果,并在 AI 驱动环境中自动化洞察。借助 Axiom MCP 服务器,数据库查询和数据探索等任务变得对 AI 客户端可用,助力更具信息性和上下文感知的 AI 交互。
此服务器当前不支持 MCP prompts。
此服务器当前不支持 MCP 资源。
go install github.com/axiomhq/axiom-mcp@latest
)。config.txt
),填写您的 Axiom 凭据。mcpServers
对象:{
"axiom": {
"command": "/path/to/your/axiom-mcp-binary",
"args": ["--config", "/path/to/your/config.txt"],
"env": {
"AXIOM_TOKEN": "xaat-your-token",
"AXIOM_URL": "https://api.axiom.co",
"AXIOM_ORG_ID": "your-org-id"
}
}
}
config.txt
),填写您的 Axiom API 令牌和其它参数。~/Library/Application Support/Claude/claude_desktop_config.json
。{
"mcpServers": {
"axiom": {
"command": "/path/to/your/axiom-mcp-binary",
"args": ["--config", "/path/to/your/config.txt"],
"env": {
"AXIOM_TOKEN": "xaat-your-token",
"AXIOM_URL": "https://api.axiom.co",
"AXIOM_ORG_ID": "your-org-id"
}
}
}
}
{
"mcpServers": {
"axiom": {
"command": "/path/to/your/axiom-mcp-binary",
"args": ["--config", "/path/to/your/config.txt"],
"env": {
"AXIOM_TOKEN": "xaat-your-token",
"AXIOM_URL": "https://api.axiom.co",
"AXIOM_ORG_ID": "your-org-id"
}
}
}
}
config.txt
配置。{
"mcpServers": {
"axiom": {
"command": "/path/to/your/axiom-mcp-binary",
"args": ["--config", "/path/to/your/config.txt"],
"env": {
"AXIOM_TOKEN": "xaat-your-token",
"AXIOM_URL": "https://api.axiom.co",
"AXIOM_ORG_ID": "your-org-id"
}
}
}
}
API 密钥安全存储
始终将 API 密钥等敏感信息以环境变量的方式存储,而不是直接写在配置文件中。例如:
"env": {
"AXIOM_TOKEN": "xaat-your-token",
"AXIOM_URL": "https://api.axiom.co",
"AXIOM_ORG_ID": "your-org-id"
}
在 FlowHunt 中使用 MCP
要将 MCP 服务器集成到 FlowHunt 工作流中,首先在流程中添加 MCP 组件,并将其连接到您的 AI 代理:
点击 MCP 组件以打开配置面板。在系统 MCP 配置部分,使用如下 JSON 格式填写您的 MCP 服务器信息:
{
"axiom": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
配置完成后,AI 代理即可将此 MCP 作为工具,访问其所有功能。请记得将 “axiom” 替换为实际的 MCP 服务器名称,并将 URL 替换为您自己的 MCP 服务器地址。
部分 | 可用性 | 详细说明 |
---|---|---|
概览 | ✅ | 介绍和功能说明 |
Prompts 列表 | ⛔ | 无 prompt 支持 |
资源列表 | ⛔ | 无资源支持 |
工具列表 | ✅ | queryApl, listDatasets |
API 密钥安全存储 | ✅ | 通过配置中的环境变量 |
采样支持(评价时非重点) | ⛔ | 未提及 |
未提及 roots 支持
在这两个表格之间,我给这个 MCP 评分为 5/10。它提供了基本工具和清晰的设置说明,但缺乏如资源、prompts 及采样支持等高级 MCP 特性,限制了其可扩展性和集成深度。
有 LICENSE | ✅ (MIT) |
---|---|
至少有一个工具 | ✅ |
Fork 数量 | 8 |
Star 数量 | 49 |
Axiom MCP 服务器允许 AI 代理直接连接到 Axiom 数据平台,执行 Axiom 处理语言(APL)查询并列出数据集。这为 AI 驱动的工作流提供了最新的分析和数据探索能力。
服务器提供两个主要工具:`queryApl` 用于执行基于 APL 的分析查询,`listDatasets` 用于发现您 Axiom 账户中的可用数据集。
典型场景包括对话式 AI 的实时数据查询、自动分析、数据集发现,以及构建 AI 代理交互分析和探索数据的工作流。
始终将敏感值(如 AXIOM_TOKEN、AXIOM_URL 和 AXIOM_ORG_ID)以环境变量的形式存储在配置文件中,切勿直接写在流程或代码里。
在流程中添加 MCP 组件,打开其配置,使用 JSON 格式填写 MCP 服务器信息,指定传输方式和 URL。将默认占位符替换为您实际的 MCP 服务器信息。
模型上下文协议(MCP)服务器将 AI 助手与外部数据源、API 和服务连接起来,实现复杂工作流的无缝集成,并在 FlowHunt 中安全管理开发任务。...
学习如何构建和部署模型上下文协议(MCP)服务器,将AI模型与外部工具和数据源连接起来。为初学者和高级开发者提供的分步指南。...
DataHub MCP 服务器为 FlowHunt AI 代理与 DataHub 元数据平台之间架起桥梁,实现高级数据发现、血缘分析、自动元数据检索,以及与 AI 驱动工作流的无缝集成。...