Hadoop伪分布式模式错误

Hadoop伪分布式模式错误,hadoop,hdfs,hadoop2,Hadoop,Hdfs,Hadoop2,我已经使用Virtualbox在OpenSuse 11.2虚拟机上设置了Hadoop。我已经完成了必要的配置。我在独立模式下成功运行了这个示例。 但在psuedo分布式模式下,我得到以下错误: 是你启动了Hadoop恶魔吗。与独立模式不同,这需要在psuedo dist模式下完成。您可以使用以下方式启动它们: $bin\start all.sh 可以找到所需步骤的文档 你遵循了所有这些步骤吗?您可以浏览NameNode和JobTracker web界面吗?可以尝试使用预配置的虚拟机吗?我认为这

我已经使用Virtualbox在OpenSuse 11.2虚拟机上设置了Hadoop。我已经完成了必要的配置。我在独立模式下成功运行了这个示例。 但在psuedo分布式模式下,我得到以下错误:



是你启动了Hadoop恶魔吗。与独立模式不同,这需要在psuedo dist模式下完成。您可以使用以下方式启动它们:

$bin\start all.sh

可以找到所需步骤的文档


你遵循了所有这些步骤吗?您可以浏览NameNode和JobTracker web界面吗?

可以尝试使用预配置的虚拟机吗?我认为这可能是开始学习hadoop的最佳方式,这些问题不应该发生在那里。

集群中似乎没有活动数据节点。是否检查状态页是否显示活动节点


使用命令$bin/Start-all.sh启动所有Hadoop守护进程。

这就是我尝试运行的示例。我可以浏览Namenode和JobTracker,core-site.xml文件就在那里。当我启动守护进程时,日志看起来很好。只有在“/bin/Hadoop-put conf input”之后才会发生异常。您能告诉我是否可以使用Cloudera的VM在完全分布式模式下运行Hadoop吗?每个虚拟机将在不同的计算机上运行。因为我不能在我工作的机器上安装Linux:(如果你想在不同的计算机上运行Cloudera的VM,你会遇到一些问题(与网络相关)。但是对于测试,在一台PC上运行2或3个VM是可行的。
$./bin/hadoop fs -put conf input
10/04/13 15:56:25 INFO hdfs.DFSClient: Exception in createBlockOutputStream java.net.SocketException: Protocol not available                                                              
10/04/13 15:56:25 INFO hdfs.DFSClient: Abandoning block blk_-8490915989783733314_1003        
10/04/13 15:56:31 INFO hdfs.DFSClient: Exception in createBlockOutputStream java.net.SocketException: Protocol not available                                                              
10/04/13 15:56:31 INFO hdfs.DFSClient: Abandoning block blk_-1740343312313498323_1003        
10/04/13 15:56:37 INFO hdfs.DFSClient: Exception in createBlockOutputStream java.net.SocketException: Protocol not available                                                              
10/04/13 15:56:37 INFO hdfs.DFSClient: Abandoning block blk_-3566235190507929459_1003        
10/04/13 15:56:43 INFO hdfs.DFSClient: Exception in createBlockOutputStream java.net.SocketException: Protocol not available                                                              
10/04/13 15:56:43 INFO hdfs.DFSClient: Abandoning block blk_-1746222418910980888_1003        
10/04/13 15:56:49 WARN hdfs.DFSClient: DataStreamer Exception: java.io.IOException: Unable to create new block.                                                                           
        at org.apache.hadoop.hdfs.DFSClient$DFSOutputStream.nextBlockOutputStream(DFSClient.java:2845)                                                                                    
        at org.apache.hadoop.hdfs.DFSClient$DFSOutputStream.access$2000(DFSClient.java:2102) 
        at org.apache.hadoop.hdfs.DFSClient$DFSOutputStream$DataStreamer.run(DFSClient.java:2288)                                                                                         

10/04/13 15:56:49 WARN hdfs.DFSClient: Error Recovery for block blk_-1746222418910980888_1003 bad datanode[0] nodes == null                                                               
10/04/13 15:56:49 WARN hdfs.DFSClient: Could not get block locations. Source file "/user/max/input/core-site.xml" - Aborting...                                                           
put: Protocol not available                                                                  
10/04/13 15:56:49 ERROR hdfs.DFSClient: Exception closing file /user/max/input/core-site.xml : java.net.SocketException: Protocol not available
java.net.SocketException: Protocol not available
        at sun.nio.ch.Net.getIntOption0(Native Method)
        at sun.nio.ch.Net.getIntOption(Net.java:178)
        at sun.nio.ch.SocketChannelImpl$1.getInt(SocketChannelImpl.java:419)
        at sun.nio.ch.SocketOptsImpl.getInt(SocketOptsImpl.java:60)
        at sun.nio.ch.SocketOptsImpl.sendBufferSize(SocketOptsImpl.java:156)
        at sun.nio.ch.SocketOptsImpl$IP$TCP.sendBufferSize(SocketOptsImpl.java:286)
        at sun.nio.ch.OptionAdaptor.getSendBufferSize(OptionAdaptor.java:129)
        at sun.nio.ch.SocketAdaptor.getSendBufferSize(SocketAdaptor.java:328)
        at org.apache.hadoop.hdfs.DFSClient$DFSOutputStream.createBlockOutputStream(DFSClient.java:2873)
        at org.apache.hadoop.hdfs.DFSClient$DFSOutputStream.nextBlockOutputStream(DFSClient.java:2826)
        at org.apache.hadoop.hdfs.DFSClient$DFSOutputStream.access$2000(DFSClient.java:2102)
        at org.apache.hadoop.hdfs.DFSClient$DFSOutputStream$DataStreamer.run(DFSClient.java:2288)