airflow - 我如何在 Airflow 中使用 --conf 选项

标签 airflow apache-airflow airflow-scheduler

我正在尝试运行 Airflow DAG,需要为任务传递一些参数。

如何读取在命令行中作为 --conf 参数传递的 JSON 字符串 trigger_dag命令,在 python DAG 文件中。

例如:airflow trigger_dag 'dag_name' -r 'run_id' --conf '{"key":"value"}'

最佳答案

两种方式。从模板字段或文件中:

{{ dag_run.conf['key'] }}

或者当上下文可用时,例如在 PythonOperator 的 Python 可调用文件中:
context['dag_run'].conf['key']

关于airflow - 我如何在 Airflow 中使用 --conf 选项,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/45945783/

相关文章:

python - 如何使用 TriggerDagRunOperator 触发 Airflow -dag

Airflow unpause per-dag 在定义中

python - 如何配置 Airflow dag 每天运行两次

google-cloud-platform - Airflow 如何从谷歌云平台上的 dags 主文件夹加载/更新 DagBag?

python - Airflow 异常: DataFlow failed with return code 1

python-3.x - Airflow 图/ TreeView 自动刷新?

flask - 在Kubernetes中安装Apache Airflow 1.10.0-Flask错误

authentication - 通过API触发Airflow DAG

airflow - Airflow DAG运行已触发,但从未执行?

python - 如何向 Airflow 添加新的 DAG?