使用Gradle的Mapreduce hadoop错误
我得到的错误为:使用Gradle的Mapreduce hadoop错误,hadoop,gradle,mapreduce,Hadoop,Gradle,Mapreduce,我得到的错误为: 请帮助我如何解决此错误或是什么原因导致此错误。文件已存在异常:输出目录hdfs://localhost:9000/tmp/outku。这意味着输出目录已经存在 始终在运行时指定输出目录名(即Hadoop将自动为您创建目录。您无需担心输出目录的创建) 您必须删除现有的输出目录并尝试运行M/r作业或更改输出目录名称每次hadoop运行MapReduce时,它都会创建一个文件夹作为输出 如果要运行同一作业,可以指定不同的输出文件夹名称,或删除过去的文件夹名称 16/02/10 11:
请帮助我如何解决此错误或是什么原因导致此错误。
文件已存在异常:输出目录hdfs://localhost:9000/tmp/outku
。这意味着输出目录已经存在
始终在运行时指定输出目录名(即Hadoop将自动为您创建目录。您无需担心输出目录的创建)
您必须删除现有的输出目录并尝试运行M/r作业或更改输出目录名称每次hadoop运行MapReduce时,它都会创建一个文件夹作为输出 如果要运行同一作业,可以指定不同的输出文件夹名称,或删除过去的文件夹名称
16/02/10 11:21:50 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
16/02/10 11:21:53 INFO client.RMProxy: Connecting to ResourceManager at /0.0.0.0:8032
Exception in thread "main" org.apache.hadoop.mapred.FileAlreadyExistsException: Output directory hdfs://localhost:9000/tmp/outku already exists
at org.apache.hadoop.mapreduce.lib.output.FileOutputFormat.checkOutputSpecs(FileOutputFormat.java:146)
at org.apache.hadoop.mapreduce.JobSubmitter.checkSpecs(JobSubmitter.java:266)
at org.apache.hadoop.mapreduce.JobSubmitter.submitJobInternal(JobSubmitter.java:139)
at org.apache.hadoop.mapreduce.Job$10.run(Job.java:1290)
at org.apache.hadoop.mapreduce.Job$10.run(Job.java:1287)
at java.security.AccessController.doPrivileged(Native Method)
at javax.security.auth.Subject.doAs(Subject.java:422)
at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1657)
at org.apache.hadoop.mapreduce.Job.submit(Job.java:1287)
at org.apache.hadoop.mapreduce.Job.waitForCompletion(Job.java:1308)
at mr.WordCount.main(WordCount.java:87)
at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62)
at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
at java.lang.reflect.Method.invoke(Method.java:497)
at org.apache.hadoop.util.RunJar.run(RunJar.java:221)
at org.apache.hadoop.util.RunJar.main(RunJar.java:136)