hadoop输入路径不存在

hadoop输入路径不存在,hadoop,Hadoop,我正在尝试在我的笔记本电脑上安装hadoop。我已经学习了一些关于设置hadoop的教程 我运行了以下命令: bin/hdfs dfs -mkdir /user/<username> bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.1.jar grep input output 'dfs[a-z.]+' 并接收此异常 16/01/22 15:11:06信息mapreduce.JobSubm

我正在尝试在我的笔记本电脑上安装hadoop。我已经学习了一些关于设置hadoop的教程

我运行了以下命令:

bin/hdfs dfs -mkdir /user/<username>  
bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.1.jar grep input output 'dfs[a-z.]+'
并接收此异常

16/01/22 15:11:06信息mapreduce.JobSubmitter:清理暂存区/tmp/hadoop Thread/staging/.staging/job_1453492366595_0006
org.apache.hadoop.mapreduce.lib.input.InvalidInputException:输入路径不存在:hdfs://localhost:9000/user//grep-temp-891167560

我没有意识到我在这个错误之前收到了这个:

16/01/22 15:51:50 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
16/01/22 15:51:51 INFO client.RMProxy: Connecting to ResourceManager at /0.0.0.0:8032
16/01/22 15:51:51 INFO input.FileInputFormat: Total input paths to process : 33
16/01/22 15:51:52 INFO mapreduce.JobSubmitter: number of splits:33
16/01/22 15:51:52 INFO mapreduce.JobSubmitter: Submitting tokens for job: job_1453492366595_0009
16/01/22 15:51:52 INFO impl.YarnClientImpl: Submitted application application_1453492366595_0009
16/01/22 15:51:52 INFO mapreduce.Job: The url to track the job: http://Marys-MacBook-Pro.local:8088/proxy/application_1453492366595_0009/
16/01/22 15:51:52 INFO mapreduce.Job: Running job: job_1453492366595_0009
16/01/22 15:51:56 INFO mapreduce.Job: Job job_1453492366595_0009 running in uber mode : false
16/01/22 15:51:56 INFO mapreduce.Job:  map 0% reduce 0%
16/01/22 15:51:56 INFO mapreduce.Job: Job job_1453492366595_0009 failed with state FAILED due to: Application application_1453492366595_0009 failed 2 times due to AM Container for appattempt_1453492366595_0009_000002 exited with  exitCode: 127
For more detailed output, check application tracking page:http://Marys-MacBook-Pro.local:8088/cluster/app/application_1453492366595_0009Then, click on links to logs of each attempt.
Diagnostics: Exception from container-launch.
Container id: container_1453492366595_0009_02_000001
Exit code: 127
Stack trace: ExitCodeException exitCode=127: 
    at org.apache.hadoop.util.Shell.runCommand(Shell.java:545)
    at org.apache.hadoop.util.Shell.run(Shell.java:456)
    at org.apache.hadoop.util.Shell$ShellCommandExecutor.execute(Shell.java:722)
    at org.apache.hadoop.yarn.server.nodemanager.DefaultContainerExecutor.launchContainer(DefaultContainerExecutor.java:211)
    at org.apache.hadoop.yarn.server.nodemanager.containermanager.launcher.ContainerLaunch.call(ContainerLaunch.java:302)
    at org.apache.hadoop.yarn.server.nodemanager.containermanager.launcher.ContainerLaunch.call(ContainerLaunch.java:82)
    at java.util.concurrent.FutureTask.run(FutureTask.java:262)
    at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1145)
    at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:615)
    at java.lang.Thread.run(Thread.java:745)


Container exited with a non-zero exit code 127
Failing this attempt. Failing the application.
下面有一个堆栈跟踪。
我使用的是Mac PC。

我使用的是Hadoop2.7.2,在接下来的过程中,我一开始也遇到了这个问题

原因是我忘了遵循“准备启动Hadoop集群”一章


我通过在
etc/hadoop/hadoop env.sh
中设置
JAVA\u HOME
解决了这个问题,我使用
hadoop
2.7.2,在接下来的过程中,我首先也遇到了这个问题

原因是我忘了遵循“准备启动Hadoop集群”一章


我通过在
etc/hadoop/hadoop env.sh
中设置
JAVA\u HOME
解决了这个问题,这是因为在hadoop中使用了错误的JDK版本。我使用了hadoop 2.6.5。起初,我使用OracleJDK1.8.0131启动hadoop,运行示例jar并发生错误。在我使用JDK1.7.0_80之后,这个示例非常有用


对我来说,这是因为在hadoop中使用了错误的JDK版本。我使用了hadoop 2.6.5。起初,我使用OracleJDK1.8.0131启动hadoop,运行示例jar并发生错误。在我使用JDK1.7.0_80之后,这个示例非常有用


有一个关于的页面。

这个JAR文件是做什么的
grep输入输出'dfs[a-z.]+'
是参数,因此我假设它在模式
dfs[a-z.]+
input
目录/文件上运行
grep
,并将结果放入
output
目录中?这是几个教程提供的示例。你的假设似乎是正确的。我正在关注这个网站:你是否运行了链接中提到的
bin/hdfs dfs-put etc/hadoop input
?是的,我已经运行了,然后又运行了一次。我在我的问题中添加了更多信息。JAR文件做了什么
grep输入输出'dfs[a-z.]+'
是参数,因此我假设它在模式
dfs[a-z.]+
input
目录/文件上运行
grep
,并将结果放入
output
目录中?这是几个教程提供的示例。你的假设似乎是正确的。我正在关注这个网站:你是否运行了链接中提到的
bin/hdfs-dfs-put etc/hadoop input
?是的,我已经运行了并再次运行了它。我为我的问题添加了更多信息。