Hadoop hdfs日志文件太大

Hadoop hdfs日志文件太大,hadoop,hdfs,Hadoop,Hdfs,在对hdfs进行了大量读写操作之后(我不知道导致此问题的确切操作)。 这两个文件: dncp\u block\u verification.log.curr, dncp_block_verification.log.prev 每个都超过200000字节 对hdfs的什么操作可能导致这些文件快速增长 从互联网上我知道我可以删除HDF和日志,但这不是一个好的解决方案。 如何避免这个问题?非常感谢正是块扫描仪导致了文件的增长。下面是一篇解释该行为的文章的链接:(第8.3.5节) HDFS 2.6.0中

在对hdfs进行了大量读写操作之后(我不知道导致此问题的确切操作)。 这两个文件: dncp\u block\u verification.log.curr, dncp_block_verification.log.prev 每个都超过200000字节

对hdfs的什么操作可能导致这些文件快速增长

从互联网上我知道我可以删除HDF和日志,但这不是一个好的解决方案。
如何避免这个问题?非常感谢

正是块扫描仪导致了文件的增长。下面是一篇解释该行为的文章的链接:(第8.3.5节)


HDFS 2.6.0中修复了导致此问题的原因,我的20 datanode集群也遇到了类似的情况。我已经看到了一些关于这是一个bug的报道。我在运行HDFS2.3.x的CDH5.0.2中看到了这种行为

由于两个dncp_block_验证日志,20个节点中有1个使用了所有可用空间的100%。其他节点似乎有非常典型的日志大小,我不明白为什么这个节点有问题


我手动删除了这两个文件,解决了我的问题,没有不良行为。不幸的是,我不知道该问题的修复或自动解决方案。

看起来这可能是块扫描仪中的一个错误:HDFS-6114-因此我们应该等待发布感谢@martin serrano的编辑,以显示该错误已修复。