Java Hadoop连接被拒绝错误

Java Hadoop连接被拒绝错误,java,hadoop,connection,Java,Hadoop,Connection,我试图安装RMR(RHadoop)包,但不知怎么搞砸了我的hadoop设置。现在,它给出了连接被拒绝的错误,我就是找不到解决方法。任何帮助都将不胜感激。谢谢 java.net.ConnectException: Call to master/***.***.***.***:54310 failed on connection exception: java.net.ConnectException: Connection refused at org.apache.hadoop.ipc.Cli

我试图安装RMR(RHadoop)包,但不知怎么搞砸了我的hadoop设置。现在,它给出了连接被拒绝的错误,我就是找不到解决方法。任何帮助都将不胜感激。谢谢

 java.net.ConnectException: Call to master/***.***.***.***:54310 failed on connection exception: java.net.ConnectException: Connection refused
at org.apache.hadoop.ipc.Client.wrapException(Client.java:1095)
at org.apache.hadoop.ipc.Client.call(Client.java:1071)
at org.apache.hadoop.ipc.RPC$Invoker.invoke(RPC.java:225)
at $Proxy2.getProtocolVersion(Unknown Source)
at org.apache.hadoop.ipc.RPC.getProxy(RPC.java:396)
at org.apache.hadoop.ipc.RPC.getProxy(RPC.java:379)
at org.apache.hadoop.hdfs.DFSClient.createRPCNamenode(DFSClient.java:119)
at org.apache.hadoop.hdfs.DFSClient.<init>(DFSClient.java:238)
at org.apache.hadoop.hdfs.DFSClient.<init>(DFSClient.java:203)
at org.apache.hadoop.hdfs.DistributedFileSystem.initialize(DistributedFileSystem.java:89)
at org.apache.hadoop.fs.FileSystem.createFileSystem(FileSystem.java:1386)
at org.apache.hadoop.fs.FileSystem.access$200(FileSystem.java:66)
at org.apache.hadoop.fs.FileSystem$Cache.get(FileSystem.java:1404)
at org.apache.hadoop.fs.FileSystem.get(FileSystem.java:254)
at org.apache.hadoop.fs.FileSystem.get(FileSystem.java:123)
at org.apache.hadoop.mapred.Child$4.run(Child.java:254)
at java.security.AccessController.doPrivileged(Native Method)
at javax.security.auth.Subject.doAs(Subject.java:396)
at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1093)
at org.apache.hadoop.mapred.Child.main(Child.java:249)
Caused by: java.net.ConnectException: Connection refused
at sun.nio.ch.SocketChannelImpl.checkConnect(Native Method)
at sun.nio.ch.SocketChannelImpl.finishConnect(SocketChannelImpl.java:574)
at org.apache.hadoop.net.SocketIOWithTimeout.connect(SocketIOWithTimeout.java:206)
at org.apache.hadoop.net.NetUtils.connect(NetUtils.java:489)
at org.apache.hadoop.ipc.Client$Connection.setupConnection(Client.java:434)
at org.apache.hadoop.ipc.Client$Connection.setupIOstreams(Client.java:560)
at org.apache.hadoop.ipc.Client$Connection.access$2000(Client.java:184)
at org.apache.hadoop.ipc.Client.getConnection(Client.java:1202)
at org.apache.hadoop.ipc.Client.call(Client.java:1046)
... 18 more
java.net.ConnectException:调用master/***.**.**:54310连接失败异常:java.net.ConnectException:连接被拒绝
位于org.apache.hadoop.ipc.Client.wrapException(Client.java:1095)
位于org.apache.hadoop.ipc.Client.call(Client.java:1071)
位于org.apache.hadoop.ipc.RPC$Invoker.invoke(RPC.java:225)
位于$Proxy2.getProtocolVersion(未知源)
位于org.apache.hadoop.ipc.RPC.getProxy(RPC.java:396)
位于org.apache.hadoop.ipc.RPC.getProxy(RPC.java:379)
位于org.apache.hadoop.hdfs.DFSClient.createRPCNamenode(DFSClient.java:119)
位于org.apache.hadoop.hdfs.DFSClient.(DFSClient.java:238)
位于org.apache.hadoop.hdfs.DFSClient.(DFSClient.java:203)
位于org.apache.hadoop.hdfs.DistributedFileSystem.initialize(DistributedFileSystem.java:89)
位于org.apache.hadoop.fs.FileSystem.createFileSystem(FileSystem.java:1386)
位于org.apache.hadoop.fs.FileSystem.access$200(FileSystem.java:66)
位于org.apache.hadoop.fs.FileSystem$Cache.get(FileSystem.java:1404)
位于org.apache.hadoop.fs.FileSystem.get(FileSystem.java:254)
位于org.apache.hadoop.fs.FileSystem.get(FileSystem.java:123)
位于org.apache.hadoop.mapred.Child$4.run(Child.java:254)
位于java.security.AccessController.doPrivileged(本机方法)
位于javax.security.auth.Subject.doAs(Subject.java:396)
位于org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1093)
位于org.apache.hadoop.mapred.Child.main(Child.java:249)
原因:java.net.ConnectException:连接被拒绝
在sun.nio.ch.socketchannel.checkConnect(本机方法)
位于sun.nio.ch.SocketChannelImpl.finishConnect(SocketChannelImpl.java:574)
位于org.apache.hadoop.net.SocketIOWithTimeout.connect(SocketIOWithTimeout.java:206)
位于org.apache.hadoop.net.NetUtils.connect(NetUtils.java:489)
位于org.apache.hadoop.ipc.Client$Connection.setupConnection(Client.java:434)
位于org.apache.hadoop.ipc.Client$Connection.setupIOstreams(Client.java:560)
位于org.apache.hadoop.ipc.Client$Connection.access$2000(Client.java:184)
位于org.apache.hadoop.ipc.Client.getConnection(Client.java:1202)
位于org.apache.hadoop.ipc.Client.call(Client.java:1046)
... 还有18个

当您看到这一点时,基本上意味着您无法连接到NameNode。它要么没有运行,要么在不同的端口上运行。如果备份了工作*-site.xml文件,则可以返回到工作版本,而无需对问题的注释中建议的完整重新安装。

当您看到这一点时,基本上意味着您无法连接到NameNode。它要么没有运行,要么在不同的端口上运行。如果您备份了工作*-site.xml文件,您可能可以返回到工作版本,而不必在对您的问题的评论中建议完全重新安装。

为了找到这个问题的答案,我已经奋斗了两天一夜

在我的情况下(我确信这是大多数情况下的问题),我必须手动创建hadoop临时文件夹并将它们添加到hdfs-site.xml

<property>
<name>dfs.data.dir</name>
<value>/home/stefan/Downloads/hadoop-2.7.1/tmp/dfs/name/data</value>
<final>true</final> 
</property> 
<property> 
<name>dfs.name.dir</name>
<value>/home/stefan/Downloads/hadoop-2.7.1/tmp/dfs/name</value> 
<final>true</final> 
</property>

为了找出这个问题的答案,我花了两天一夜的时间

在我的情况下(我确信这是大多数情况下的问题),我必须手动创建hadoop临时文件夹并将它们添加到hdfs-site.xml

<property>
<name>dfs.data.dir</name>
<value>/home/stefan/Downloads/hadoop-2.7.1/tmp/dfs/name/data</value>
<final>true</final> 
</property> 
<property> 
<name>dfs.name.dir</name>
<value>/home/stefan/Downloads/hadoop-2.7.1/tmp/dfs/name</value> 
<final>true</final> 
</property>

看起来您需要在配置文件中的某个位置设置jobtracker或namenode等的位置。整个事情都搞砸了。我修复了一个错误,随后会弹出几个其他错误。现在,namenode将不会启动。我想我必须删除并重新安装完整的looks,比如在配置文件中的某个地方,你需要设置jobtracker或namenode的位置,或者其他什么。整个事情都搞砸了。我修复了一个错误,随后会弹出几个其他错误。现在,namenode将不会启动。我想我必须完全删除并重新安装