Airflow在ETL中核心作用是调度与编排流程而非执行数据处理,通过DAG定义任务依赖、重试策略、定时触发及通知机制,协调Python/SQL/Spark等实际执行工具。
Airflow不是执行ETL任务的工具,而是调度和编排ETL流程的“指挥官”。它不直接处理数据清洗或加载,但能精
准控制:哪个任务先跑、失败后怎么重试、依赖关系如何串联、每天几点触发、出错时通知谁。实际项目中,真正干活的是Python脚本、SQL、Spark或dbt,Airflow负责把它们按逻辑串起来、稳住节奏、留下记录。
DAG(有向无环图)是Airflow调度的蓝图。比如构建一张销售宽表,典型DAG包含:拉取原始订单数据 → 清洗并去重 → 关联用户维度 → 计算日销售额指标 → 写入数仓汇总表 → 发送完成通知。每个步骤是一个Operator(如PythonOperator、PostgresOperator),通过set_downstream或>>明确先后顺序。
@task装饰器写轻量Python函数,比传统Operator更易调试retries=3和retry_delay=timedelta(minutes=2)防临时故障schedule_interval='0 2 * * *'(每天凌晨2点跑昨日数据)trigger_rule='all_success'确保前置全成功才执行纯演示DAG跑得通,但上线后常卡在权限、性能和可观测性上。真实数据仓库ETL需注意:
Connection管理凭证,避免硬编码;密码存于Airflow密钥后端(如AWS Secrets Manager)updated_at > '{{ ds }}')配合execution_date变量logging.info(f"Processed {row_count} rows"),方便在UI的Task Logs里快速定位瓶颈Sensor(如ExternalTaskSensor)等待上游DAG完成,避免数仓表未就绪就启动下游计算Airflow报错不总在代码里,常藏在环境与配置中: