快速开始

译者:@ImPerat0R_

安装是快速而直接的。

  1. # airflow需要home目录,默认是~/airflow,
  2. # 但是如果你需要,放在其它位置也是可以的
  3. # (可选)
  4. export AIRFLOW_HOME = ~/airflow
  5. # 使用pip从pypi安装
  6. pip install apache-airflow
  7. # 初始化数据库
  8. airflow initdb
  9. # 启动web服务器,默认端口是8080
  10. airflow webserver -p 8080
  11. # 启动定时器
  12. airflow scheduler
  13. # 在浏览器中浏览localhost:8080,并在home页开启example dag

运行这些命令后,Airflow将创建$AIRFLOW_HOME文件夹,并放置一个airflow.cfg文件,其默认值可以让您快速上手。 您可以在$AIRFLOW_HOME/airflow.cfg检查文件,也可以通过$AIRFLOW_HOME/airflow.cfg Admin->Configuration菜单中的UI检查文件。 如果由systemd启动,则Web服务器的PID文件将存储在$AIRFLOW_HOME/airflow-webserver.pid/run/airflow/webserver.pid

开箱即用,Airflow使用sqlite数据库,由于使用此数据库后端无法进行并行化,因此您应该迅速替换它。 它可以与SequentialExecutor一起使用,但与此同时只能按顺序运行任务实例。 虽然这是非常有限的,但它允许您快速启动和运行并浏览UI和命令行实用程序。

以下是一些将触发一些任务实例的命令。 在运行以下命令时,您应该能够在example1 DAG中看到任务的状态发生变化。

  1. # 运行第一个任务实例
  2. airflow run example_bash_operator runme_0 2015-01-01
  3. # 运行两天的任务回填
  4. airflow backfill example_bash_operator -s 2015-01-01 -e 2015-01-02

下一步是什么?

从这一点开始,您可以前往教程部分获取更多示例,或者如果您已准备好弄清楚,请参阅操作指南部分。