在对 hdfs 进行了大量的读写操作之后,(我不知道导致这个问题的确切操作)。 这两个文件: dncp_block_verification.log.curr , dncp_block_verification.log.prev 每个都超过 200 000 000 000 字节。
对 hdfs 进行哪些操作可能会导致这些文件快速增长?
从互联网上我知道我可以关闭 hdfs 并删除日志,但这不是好的解决方案。 如何避免这个问题?非常感谢你
最佳答案
block 扫描器是导致文件增长的原因。这是解释该行为的文章的链接:http://aosabook.org/en/hdfs.html (第 8.3.5 节)。
bug这导致这已在 HDFS 2.6.0 中修复
关于hadoop - hdfs 日志文件太大,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/25259202/