Azure Log Analytics 和 Data Lake Store 诊断日志 - 筛选出数据备份日志事件

标签 azure azure-data-lake azure-log-analytics

我们已配置 Azure Data Lake Store 诊断日志以将数据推送到 Log Analytics。该数据稍后将用于审计目的。

我们遇到的问题 - 我们每天晚上的备份过程(将数据从一个数据湖存储备份到另一个数据湖存储)会生成千兆字节的几乎无用的日志记录。我们可以在将这些日志上传到 Log Analytics(在查询中)后过滤掉这些日志,但这些数据占用空间并且花费大量资金。

有没有办法在将某些日志上传到 Log Analytics 之前过滤掉这些日志,以便这些数据永远不会到达 Log Analytics? (在我们的例子中,这是 BACKUP 用户生成的日志)。还可以使用哪些其他选项来删除数据备份日志?

最佳答案

在将日志路由到 Log Analytics 之前,无法以这种方式筛选日志。

将来,您也许能够消除备份过程,转而使用 geo-redundant Azure Data Lake Store

关于Azure Log Analytics 和 Data Lake Store 诊断日志 - 筛选出数据备份日志事件,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/50527178/

相关文章:

azure - Azure DevOps 中的缓存

apache-spark - 使用mapPartitions时,binaryFiles什么时候加载到内存中?

azure - 如何将 Log Analytics/Azure Monitor 挂接到角色分配中?

azure - Kustos bag_unpack 不解压我的 json 字典字符串

azure - 用于将 Linux 服务器连接到 Azure Log Analytics 工作区的代理的名称是什么?

.net - 无法从 ASP.NET MVC 内部写入 Blob 存储

azure - AD 用户自助密码重置

azure - 在本地集群上运行任何有状态服务时出错

scala - 将 DataFrame 写入 Parquet 或 Delta 似乎没有被并行化 - 耗时太长

azure-data-factory - 如何在 ADF 中调度 U-SQL 过程?