Warning: file_get_contents(/data/phpspider/zhask/data//catemap/0/hadoop/6.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Hadoop 如何在log4j.properties中添加HDFS路径_Hadoop_Properties_Log4j_Hdfs_Oozie - Fatal编程技术网

Hadoop 如何在log4j.properties中添加HDFS路径

Hadoop 如何在log4j.properties中添加HDFS路径,hadoop,properties,log4j,hdfs,oozie,Hadoop,Properties,Log4j,Hdfs,Oozie,我的maven项目中有一个属性文件 当MR代码运行时,我正在生成一些日志文件 所以在属性文件中我有这样一个:: log4j.appender.debugLog.File=/home/bigdata/Downloads/log1 因此,它在这个路径上工作并生成日志文件 但我希望这些文件是在HDFS上生成的 所以我改变了这条路:: log4j.appender.debugLog.File=hdfs://localhost:8020/user/bigdata/WCWF/log1 现在,当我运行程序时,

我的maven项目中有一个属性文件 当MR代码运行时,我正在生成一些日志文件

所以在属性文件中我有这样一个:: log4j.appender.debugLog.File=/home/bigdata/Downloads/log1

因此,它在这个路径上工作并生成日志文件

但我希望这些文件是在HDFS上生成的

所以我改变了这条路:: log4j.appender.debugLog.File=hdfs://localhost:8020/user/bigdata/WCWF/log1

现在,当我运行程序时,它可以正常执行,但不会在这个HDFS路径上生成日志文件


需要帮助请

可能是重复的我不明白你期望在这里发生什么。。。1) log4j可以跨网络协议写入文件吗?2) log4j需要知道如何解析所有uri模式,如果它可以3)如果它真的工作,那么如果HDFSnope上存在目录,它就会立即崩溃!请看,flume所做的是从不同的来源收集数据并放入中央存储我想要的是…输出文件应以与存储在本地文件系统相同的方式存储在hdfs中我只希望它存储在hdfs路径上,如下所示:${namenode}/a/b/c/。。。但它不起作用:实际上,Flume从A点到B点获取文件。HDFS不是必需的,但它可以完全按照您所说的做。查看flume文档中的假脱机目录源(输入)、文件通道(传输层)和HDFS接收器(输出),它看起来像是我想要的tnx fro help cricket_007