Hadoop+Hbase兼容性问题

Hadoop+Hbase兼容性问题,hadoop,hbase,eofexception,Hadoop,Hbase,Eofexception,我搜索了很多关于我面临的以下问题: java.io.IOException:在本地计算机上调用/10.0.1.37:50070失败 异常:java.io.EOFException 位于org.apache.hadoop.ipc.Client.wrapExceptionClient.java:1139 位于org.apache.hadoop.ipc.Client.callClient.java:1107 在org.apache.hadoop.ipc.RPC$Invoker.invokeRPC.ja

我搜索了很多关于我面临的以下问题:

java.io.IOException:在本地计算机上调用/10.0.1.37:50070失败 异常:java.io.EOFException 位于org.apache.hadoop.ipc.Client.wrapExceptionClient.java:1139 位于org.apache.hadoop.ipc.Client.callClient.java:1107 在org.apache.hadoop.ipc.RPC$Invoker.invokeRPC.java:226

我找到了像:和其他的链接,但没有一个对我有用

现在我开始觉得我没有更好地理解版本兼容性问题。 最让我困惑的是关于Hadoop的Hbase文档,这就像这个版本的Hbase只能在Hadoop 0.20上运行一样。“这”指的是什么?它们是指文档顶部的0.93快照吗

最后,我使用的是Hadoop版本0.20.203和Hbase 0.90.4。有人能告诉我这些版本是否兼容吗


提前谢谢

我同意这本书给出了一个奇怪的参考,谈到了这个版本,也谈到了0.93。为了让事情更清楚一点,这本书目前超越了版本,但只存在于主干中,目前称为0.93,编译时添加了快照

在任何情况下,所有HBase版本当前都与所有Hadoop 0.20兼容。*无论是0.20.2还是0.20.205.0,后者是目前唯一支持附件的版本。您正在使用的版本0.20.203没有,如果区域服务器死亡,您可能会丢失数据

您的EOF异常可能是因为您没有正确交换HBase lib/文件夹中的Hadoop JAR。我昨天在邮件列表上回答了一个类似的问题,它被错误地命名为0.94,它应该是0.90.4,这提供了关于调试的其他线索


最后,堆栈跟踪中有一个奇怪的端口号。50070是web UI,而不是默认为9000的Namenode RPC端口。可能是您给HBase的端口号不对。

我同意这本书给出了一个奇怪的参考,谈到了这个版本,也谈到了0.93。为了让事情更清楚一点,这本书目前超越了版本,但只存在于主干中,目前称为0.93,编译时添加了快照

在任何情况下,所有HBase版本当前都与所有Hadoop 0.20兼容。*无论是0.20.2还是0.20.205.0,后者是目前唯一支持附件的版本。您正在使用的版本0.20.203没有,如果区域服务器死亡,您可能会丢失数据

您的EOF异常可能是因为您没有正确交换HBase lib/文件夹中的Hadoop JAR。我昨天在邮件列表上回答了一个类似的问题,它被错误地命名为0.94,它应该是0.90.4,这提供了关于调试的其他线索


最后,堆栈跟踪中有一个奇怪的端口号。50070是web UI,而不是默认为9000的Namenode RPC端口。可能是您给HBase的端口号不对。

我从发布的链接中获取了输入,它对我起到了作用。我只需要使用HADOOP-0.20.2将$HADOOP_HOME/lib中的一个额外的番石榴*.jar复制到$HBASE_HOME/lib中,我从发布的链接中获取了输入,它对我起到了作用。我只需要使用HADOOP-0.20.2将$HADOOP\u HOME/lib中的一个额外的guava*.jar复制到$HBASE\u HOME/lib中