我们已配置 Azure Data Lake Store 诊断日志以将数据推送到 Log Analytics。该数据稍后将用于审计目的。
我们遇到的问题 - 我们每天晚上的备份过程(将数据从一个数据湖存储备份到另一个数据湖存储)会生成千兆字节的几乎无用的日志记录。我们可以在将这些日志上传到 Log Analytics(在查询中)后过滤掉这些日志,但这些数据占用空间并且花费大量资金。
有没有办法在将某些日志上传到 Log Analytics 之前过滤掉这些日志,以便这些数据永远不会到达 Log Analytics? (在我们的例子中,这是 BACKUP 用户生成的日志)。还可以使用哪些其他选项来删除数据备份日志?
最佳答案
在将日志路由到 Log Analytics 之前,无法以这种方式筛选日志。
将来,您也许能够消除备份过程,转而使用 geo-redundant Azure Data Lake Store 。
关于Azure Log Analytics 和 Data Lake Store 诊断日志 - 筛选出数据备份日志事件,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/50527178/