airflow - 任务重试次数超过Airflow中指定的重试次数

标签 airflow airflow-scheduler

我最近将 Airflow 升级到了1.10.2。 dag中的某些任务运行良好,而某些任务重试的次数超过了指定的重试次数。
任务日志之一显示-启动尝试26,共2次。为什么调度程序即使在两次失败后仍对其进行调度?
任何人都面临类似的问题吗?

示例Dag-

args = {
    'owner': airflow,
    'depends_on_past': False,
    'start_date': datetime(2019, 03, 10, 0, 0, 0),
    'retries':1,
    'retry_delay': timedelta(minutes=2),
    'email': ['my@myorg.com'],
    'email_on_failure': True,
    'email_on_retry': True
}

dag = DAG(dag_id='dag1',
    default_args=args,
    schedule_interval='0 12 * * *',
    max_active_runs=1)

data_processor1 = BashOperator(
    task_id='data_processor1',
    bash_command="sh processor1.sh {{ ds }} ",
    dag=dag)

data_processor2 = BashOperator(
    task_id='data_processor2',
    bash_command="ssh processor2.sh {{ ds }} ",
    dag=dag)

data_processor1.set_downstream(data_processor2)

最佳答案

这可能很有用,

我试图生成与 Airflow 相同的错误,但无法生成。

在我的Airflow GUI中,它仅显示一次重试,然后将Task和DAG标记为失败,这是一般的 Airflow 行为,我不知道为什么以及如何面对这个问题。

click here to see image screenshot of my airflow GUI for your DAG

您能否添加有关该问题的更多详细信息(例如日志和全部)。

关于airflow - 任务重试次数超过Airflow中指定的重试次数,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/55128964/

相关文章:

python-3.x - Airflow 1.10 : sqlalchemy. orm.exc.NoResultFound:未找到 one() 的行

java - 构建需要上下文限制的 Airflow DAG

airflow - 回填/清除旧 DAG 时 dagrun_timeout 是否会干扰?

python - 请求中未包含有效的面包屑

python - Airflow - params 内的 Jinja 模板(postgresoperator)

Airflow Jinja 渲染模板

python - 了解 apache Airflow 中的 TreeView

airflow - 在不同主机上运行 Airflow DAG/任务

ubuntu - 防止禁用的 DAG 在启用时立即运行

Airflow 以编程方式取消暂停 dag?