Warning: file_get_contents(/data/phpspider/zhask/data//catemap/0/hadoop/6.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Exception Hadoop连接异常_Exception_Hadoop_Connection - Fatal编程技术网

Exception Hadoop连接异常

Exception Hadoop连接异常,exception,hadoop,connection,Exception,Hadoop,Connection,我最近在本地ubuntu上安装了hadoop。我已经通过调用bin/start all.sh脚本启动了数据节点。但是当我尝试运行单词计数程序时 bin/hadoop jar hadoop-examples-1.2.1.jar wordcount /home/USER/Desktop/books /home/USER/Desktop/books-output 我总是遇到连接异常。“books”文件夹位于我的deskop(本地文件系统)上。有没有关于如何克服这一问题的建议 我遵循了教程中的每个步骤

我最近在本地ubuntu上安装了hadoop。我已经通过调用
bin/start all.sh
脚本启动了数据节点。但是当我尝试运行单词计数程序时

bin/hadoop jar hadoop-examples-1.2.1.jar wordcount /home/USER/Desktop/books /home/USER/Desktop/books-output
我总是遇到连接异常。“books”文件夹位于我的deskop(本地文件系统)上。有没有关于如何克服这一问题的建议


我遵循了教程中的每个步骤。我不知道如何消除那个错误。感谢您的帮助。

将您的图书文件复制到您的hdfs中

对于输入路径参数,请使用复制的图书文件的hdfs路径

有关更多详细信息,请浏览下面的链接


这里有点混乱,当您运行
hadoop…
命令时,它使用的默认文件系统是hadoop分布式文件系统,因此文件必须位于hdfs上,hadoop才能访问它

要将文件从本地文件系统复制到hadoop文件系统,必须使用以下命令

hdfs-dfs-copyFromLocal/path/in/local/file/system/destination/on/hdfs

还有一件事,如果您想直接从IDE运行程序,那么有时您会遇到这个问题,可以通过添加

conf变量中的core-site.xml和hdfs-site.xml文件

conf.addResource(新路径(“/usr/local/hadoop/etc/hadoop/core site.xml”)
conf.addResource(新路径(“/usr/local/hadoop/etc/hadoop/hdfs site.xml”)

将上面的路径更改为hdfs-site.xml,将core-site.xml更改为本地路径


因此,也可以从命令行通过使用
-cp
标记将上述参数添加到类路径中来提供这些参数。

您能粘贴异常跟踪吗?