python - 为 Apache airflow 配置日志记录保留策略

标签 python logging airflow

我无法在 Airflow 文档中找到如何设置我需要的保留策略。 目前,我们将所有 Airflow 日志永久保存在我们的服务器上,这不是最好的方法。

我希望为我拥有的所有不同日志创建全局日志配置。

如何以及在哪里配置:

  1. 保留天数
  2. 最大文件大小

最佳答案

我昨天遇到了同样的情况,我的解决方案是使用一个 DAG 来处理所有日志清理并将其安排为任何其他 DAG。

检查这个repo ,您会找到有关如何设置它的分步指南。基本上,您将实现的是根据 上定义的给定时间段删除位于 airflow-home/log/airflow-home/log/scheduler 上的文件变量。 DAG 根据您之前的定义,为每个要删除的目录动态创建一个任务。

在我的例子中,我对原始 DAG 所做的唯一修改是通过替换 DIRECTORIES_TO_DELETE 的初始值只允许删除 scheduler 文件夹。一切归功于创作者!开箱即用,并且易于定制。

关于python - 为 Apache airflow 配置日志记录保留策略,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/66580751/

相关文章:

python - 更改 pandas groupby 使用的函数中的值

java - 从 log4j 或 logback 中调用实例继承附加程序

python - Airflow 变量的值在重新启动 docker 容器时变得无效

docker - 无法使用 DockerOperator 从 Airflow 容器在 Ubuntu 容器中执行命令

python - header If-Modified-Since 不给出 304 代码

python - 磁盘寻道时间测量方法

python - 使用并行 Python 记录工作进程

java - 计算重复行而不是在 log4j2 中显示所有重复行?

airflow - 如何向 Airflow 添加新的连接类型?

python - 这个字符串标准化器 Python 片段有什么问题?