
Apache Airflow MCP 的 AI 智能代理
通过模型上下文协议(MCP)服务器无缝连接和管理 Apache Airflow。本集成标准化 Airflow 编排,实现对 DAG、任务及资源的自动化管理,支持所有 MCP 兼容客户端。加速工作流自动化,提升运营效率,并确保与官方 Apache Airflow 客户端库的高度兼容性。

统一的 Airflow 工作流管理
通过 MCP 支持的智能代理,直接全面掌控 Apache Airflow 环境。利用标准化 API 轻松管理 DAG、DAG 运行、任务、变量、连接等。实现编排集中化、运维简化,并支持大规模快速部署。
- 完整的 DAG 生命周期管理.
- 通过 API 全面支持列出、新建、更新、暂停、恢复和删除 DAG 及其运行。
- 任务与变量操作.
- 自动化任务管理和变量处理,简化工作流执行与配置。
- 安全的连接与资源池.
- 安全管理 Airflow 连接和资源池,提升可扩展性和可靠性。
- 健康与监控 API.
- 监控 Airflow 健康状态、统计、插件和日志,主动发现和解决问题,确保合规。

灵活的 API 分组与只读模式
自定义 API 暴露以满足合规与安全需求。可选择特定 Airflow API 分组,或启用只读模式,仅开放安全、无破坏性的操作。适用于生产环境和敏感场景。
- 只读模式.
- 仅开放 GET/只读操作,安全监控与审计,适用于合规敏感环境。
- 自定义 API 分组选择.
- 自定义启用或限制 Airflow API,如 DAG、变量、事件日志等,灵活满足团队需求。
- 无破坏性测试.
- 测试连接与获取配置信息,无需更改工作流状态。

极速部署与便捷集成
通过简单的环境变量和灵活的运行选项,快速部署 Airflow MCP 服务器。兼容 Claude Desktop、Smithery 及手动执行,轻松集成任意工作流自动化体系。
- 一键部署.
- 通过单条命令与环境变量实现部署,显著减少开发或生产环境的搭建时间。
- 多样化集成.
- 支持 Claude Desktop、Smithery 或手动运行,适配各种 DevOps 工作流。
MCP 集成
可用的 Apache Airflow MCP 集成工具
以下工具可作为 Apache Airflow MCP 集成的一部分使用:
- list_dags
列出 Apache Airflow 实例中所有可用的 DAG。
- get_dag_details
获取指定 DAG 的详细信息。
- update_dag
更新现有 DAG 的属性或配置。
- delete_dag
从 Airflow 实例中删除指定的 DAG。
- create_dag_run
为指定 DAG 触发新的运行。
- list_dag_runs
列出指定 DAG 的所有运行。
- get_dag_run_details
获取指定 DAG 运行的详情。
- update_dag_run
更新 DAG 运行的状态或属性。
- delete_dag_run
从 Airflow 实例中删除指定的 DAG 运行。
- list_tasks
列出指定 DAG 下的所有任务。
- get_task_details
获取 DAG 中指定任务的详细信息。
- get_task_instance
获取指定 DAG 运行中某任务实例的信息。
- list_task_instances
列出指定 DAG 运行下的所有任务实例。
- update_task_instance
更新任务实例的状态或详细信息。
- create_variable
新建 Airflow 变量。
- list_variables
列出所有 Airflow 变量。
- get_variable
获取指定 Airflow 变量的值及详细信息。
- update_variable
更新现有 Airflow 变量的值。
- delete_variable
删除指定的 Airflow 变量。
- create_connection
新建 Airflow 连接。
- list_connections
列出所有已配置的 Airflow 连接。
- get_connection
获取指定 Airflow 连接的详细信息。
- update_connection
更新现有 Airflow 连接的配置信息。
- delete_connection
删除指定的 Airflow 连接。
- test_connection
测试指定 Airflow 连接的连通性。
- list_pools
列出 Airflow 中的所有资源池。
- create_pool
在 Airflow 中创建新的资源池。
- get_pool
获取指定 Airflow 资源池的详细信息。
- update_pool
更新现有 Airflow 资源池的配置信息。
- delete_pool
删除指定的 Airflow 资源池。
- list_xcoms
列出指定任务实例的所有 XCom 记录。
- get_xcom_entry
根据 key 获取指定 XCom 记录。
- list_datasets
列出 Airflow 注册的所有数据集。
- get_dataset
获取指定数据集的详细信息。
- create_dataset_event
在 Airflow 中创建新的数据集事件。
- list_event_logs
列出 Airflow 实例中的所有事件日志。
- get_event_log
获取指定 Airflow 事件日志的详细信息。
- get_config
获取 Airflow 实例的配置信息。
- get_health
检查 Airflow 实例的健康状态。
- get_plugins
获取已安装的 Airflow 插件列表。
- list_providers
列出 Airflow 实例中已安装的所有 provider。
- list_import_errors
列出 Airflow DAG 中发现的所有导入错误。
- get_import_error_details
获取指定导入错误的详细信息。
- get_version
获取 Airflow 实例的版本信息。
通过 MCP 无缝集成 Apache Airflow
使用模型上下文协议标准化并简化您的 Airflow 工作流。预约现场演示或免费试用 FlowHunt,体验 mcp-server-apache-airflow 带来的流畅、安全编排。

什么是 mcp-server-apache-airflow
mcp-server-apache-airflow 是针对 Apache Airflow 的模型上下文协议(MCP)服务器实现,旨在无缝对接 MCP 客户端与 Airflow。本开源项目为与 Apache Airflow 交互提供了标准化 API,用户可编程管理、监控与控制工作流(DAG)。通过封装 Airflow 的 REST API,简化了与其他系统的集成,使企业能够以协议驱动方式统一管理工作流编排环境。主要特性包括列出、暂停与恢复 DAG,新建和管理 DAG 运行,以及获取健康与版本信息。该项目非常适合希望自动化和标准化多基础设施工作流流程的开发者和组织。
能力
mcp-server-apache-airflow 能做什么
借助 mcp-server-apache-airflow,您可以通过标准协议以编程方式与 Apache Airflow 交互,实现无缝的工作流管理、自动化与监控。该服务非常适合将 Airflow 连接到其它系统、DevOps 流水线或 AI 代理,提供强大灵活的工作流编排能力。
- 标准化 API 访问
- 使用统一的 MCP API 与 Apache Airflow 交互,降低集成复杂性。
- DAG 管理
- 列出、暂停、恢复及控制 DAG,实现灵活的工作流编排。
- DAG 运行控制
- 以编程方式创建、管理和监控 DAG 运行,实现自动化执行。
- 健康与版本检查
- 轻松获取 Airflow 实例的健康状态和版本信息。
- 系统集成
- 通过模型上下文协议,将 Airflow 与其他服务和平台集成,实现端到端自动化。

AI 代理如何从 mcp-server-apache-airflow 受益
AI 代理可以利用 mcp-server-apache-airflow 自动化复杂的工作流管理任务,监控数据管道,并以编程方式触发流程。借助标准 MCP 接口,AI 系统可高效编排数据处理,提升工作流可靠性,实现机器学习模型与生产管道的无缝衔接,从而提升运营效率,加速 AI 解决方案的落地与部署。