Logging 如何清理/var/log/hadoop hdfs下的hadoop hdfs日志
hadoop群集中的my name节点运行状况变差,因为“该角色的日志目录不是一个可用空间小于4GB的文件系统。/var/log/hadoop hdfs(可用空间:2.4GB(11.12%),容量:21.7 GB” 我查看了那个文件夹,发现里面有5.5GB名为“hdfs audit.log.0”-“hdfs audit.log.20”的日志文件。我读了这些文件,真的不需要保存这些日志。我想知道有没有办法永久删除它们,不再生成它们?(我试图手动删除它们,但似乎几小时后它们又回来了。) 我还尝试在我的Logging 如何清理/var/log/hadoop hdfs下的hadoop hdfs日志,logging,hadoop,log4j,hdfs,Logging,Hadoop,Log4j,Hdfs,hadoop群集中的my name节点运行状况变差,因为“该角色的日志目录不是一个可用空间小于4GB的文件系统。/var/log/hadoop hdfs(可用空间:2.4GB(11.12%),容量:21.7 GB” 我查看了那个文件夹,发现里面有5.5GB名为“hdfs audit.log.0”-“hdfs audit.log.20”的日志文件。我读了这些文件,真的不需要保存这些日志。我想知道有没有办法永久删除它们,不再生成它们?(我试图手动删除它们,但似乎几小时后它们又回来了。) 我还尝试在我
/etc/hadoop/conf/log4j.properties
中添加“log4j.logger.org.apache.hadoop.hdfs.server.namenode.FSNamesystem.audit=WARN,NullAppender”
,但它并没有阻止这些文件“返回”
提前感谢您的帮助!首先,Hadoop的容量比您提到的要大得多,这意味着5.5GB的日志通常不会太多。这解释了为什么默认设置不适合您的情况 你可以:
- 减少变量
(通常为10)navigator保留的日志文件数。audit\u log\u max\u backup\u index
- 或者使用
navigator.audit\u log\u max\u file\u size