Apache 用于hbase mapreduce作业的log4j

Apache 用于hbase mapreduce作业的log4j,apache,hadoop,mapreduce,log4j,hbase,Apache,Hadoop,Mapreduce,Log4j,Hbase,我知道hadoop使用log4进行日志记录,并且我能够在conf/log4j.properties中查看属性以确定现有日志文件的位置。但是,有没有办法将日志从hbase mapreduce作业定向到一个全新的文件?我的想法是,我有一个工作计划每晚运行,我希望能够登录到/var/log/myjob.log,只为这个工作,这样我就可以检查该文件的任何错误/异常,而不必通过笔记本用户界面。这可能吗?如果是,怎么做?另外,请注意,作业将提交到集群,因此如果日志文件需要在HDFS或常规(linux)平台上

我知道hadoop使用log4进行日志记录,并且我能够在conf/log4j.properties中查看属性以确定现有日志文件的位置。但是,有没有办法将日志从hbase mapreduce作业定向到一个全新的文件?我的想法是,我有一个工作计划每晚运行,我希望能够登录到/var/log/myjob.log,只为这个工作,这样我就可以检查该文件的任何错误/异常,而不必通过笔记本用户界面。这可能吗?如果是,怎么做?另外,请注意,作业将提交到集群,因此如果日志文件需要在HDFS或常规(linux)平台上,请给出建议。如果在Linux上,那么它应该在所有节点上还是只在hadoop主机上


感谢您的建议。

您可以按照mapper和reducer类的setup()方法中的说明动态创建文件追加器

拉维:谢谢你的建议。但我不确定是否可以从mapreduce作业中实现这一点,因为它是以分布式方式运行的。