Warning: file_get_contents(/data/phpspider/zhask/data//catemap/8/logging/2.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Logging 如何清理/var/log/hadoop hdfs下的hadoop hdfs日志_Logging_Hadoop_Log4j_Hdfs - Fatal编程技术网

Logging 如何清理/var/log/hadoop hdfs下的hadoop hdfs日志

Logging 如何清理/var/log/hadoop hdfs下的hadoop hdfs日志,logging,hadoop,log4j,hdfs,Logging,Hadoop,Log4j,Hdfs,hadoop群集中的my name节点运行状况变差,因为“该角色的日志目录不是一个可用空间小于4GB的文件系统。/var/log/hadoop hdfs(可用空间:2.4GB(11.12%),容量:21.7 GB” 我查看了那个文件夹,发现里面有5.5GB名为“hdfs audit.log.0”-“hdfs audit.log.20”的日志文件。我读了这些文件,真的不需要保存这些日志。我想知道有没有办法永久删除它们,不再生成它们?(我试图手动删除它们,但似乎几小时后它们又回来了。) 我还尝试在我

hadoop群集中的my name节点运行状况变差,因为“该角色的日志目录不是一个可用空间小于4GB的文件系统。/var/log/hadoop hdfs(可用空间:2.4GB(11.12%),容量:21.7 GB”

我查看了那个文件夹,发现里面有5.5GB名为“hdfs audit.log.0”-“hdfs audit.log.20”的日志文件。我读了这些文件,真的不需要保存这些日志。我想知道有没有办法永久删除它们,不再生成它们?(我试图手动删除它们,但似乎几小时后它们又回来了。)

我还尝试在我的
/etc/hadoop/conf/log4j.properties
中添加
“log4j.logger.org.apache.hadoop.hdfs.server.namenode.FSNamesystem.audit=WARN,NullAppender”
,但它并没有阻止这些文件“返回”


提前感谢您的帮助!

首先,Hadoop的容量比您提到的要大得多,这意味着5.5GB的日志通常不会太多。这解释了为什么默认设置不适合您的情况

你可以:

  • 减少变量
    navigator保留的日志文件数。audit\u log\u max\u backup\u index
    (通常为10)
  • 或者使用
    navigator.audit\u log\u max\u file\u size

您运行的是哪个版本的hadoop?您在更改log4j.properties文件后重新启动了namenode吗?@ChrisWhite我刚刚重新启动了它,5.5G审计日志文件仍在/var/log/hadoop hdfs下。我是否需要手动删除然后再重新启动?版本是hadoop 2.0.0-cdh4.3.0。谢谢!耶!是的手动删除并重新启动后恢复正常。谢谢你的帮助!我可以手动删除日志文件吗?谢谢!!我发布问题已经有一段时间了,但我想我们最终修改了日志文件的最大大小来解决问题。是的,我们在一个小集群上进行了一些实验,这样机器就没有了large.我在哪里设置这些变量?我是否需要重新启动datanode以反映这些更改?