Hbase Hmaster没有运行

Hbase Hmaster没有运行,hbase,Hbase,我是Hadoop和Hbase的新手。我正在本地文件系统上运行Hbase,并尝试通过Hbase创建一些表,但我知道Hmaster尚未开始。我更改了hbase-site.xml,但似乎没有改进。我的xml中有以下条目: <property> <name>hbase.rootdir</name> <value>file:///home/cluster/hbase</value> </property> <

我是Hadoop和Hbase的新手。我正在本地文件系统上运行Hbase,并尝试通过Hbase创建一些表,但我知道Hmaster尚未开始。我更改了hbase-site.xml,但似乎没有改进。我的xml中有以下条目:

<property>
    <name>hbase.rootdir</name>
    <value>file:///home/cluster/hbase</value>
</property>


<property>
    <name>hbase.master</name>
    <value>localhost:9000</value>
</property>

<property>
    <name>hbase.zookeeper.quorum</name>
            <value>localhost</value>
</property>

 <property>    
    <name>hbase.zookeeper.property.dataDir</name>
    <value>file:///home/cluster/zooKeeper</value>    
</property>

hbase.rootdir
file:///home/cluster/hbase
hbase.master
本地主机:9000
hbase.zookeeper.quorum
本地服务器
hbase.zookeeper.property.dataDir
file:///home/cluster/zooKeeper    
本地主机:127.0.0.1 例外情况是:

java.net.ConnectException: Call to localhost/127.0.0.1:9000 failed on connection exception: java.net.ConnectException: Connection refused
    at org.apache.hadoop.ipc.Client.wrapException(Client.java:1099)
    at org.apache.hadoop.ipc.Client.call(Client.java:1075)
    at org.apache.hadoop.ipc.RPC$Invoker.invoke(RPC.java:225)
    at com.sun.proxy.$Proxy11.getProtocolVersion(Unknown Source)
    at org.apache.hadoop.ipc.RPC.getProxy(RPC.java:396)
    at org.apache.hadoop.ipc.RPC.getProxy(RPC.java:379)
    at org.apache.hadoop.hdfs.DFSClient.createRPCNamenode(DFSClient.java:119)
    at org.apache.hadoop.hdfs.DFSClient.<init>(DFSClient.java:238)
    at org.apache.hadoop.hdfs.DFSClient.<init>(DFSClient.java:203)
    at org.apache.hadoop.hdfs.DistributedFileSystem.initialize(DistributedFileSystem.java:89)
    at org.apache.hadoop.fs.FileSystem.createFileSystem(FileSystem.java:1386)
    at org.apache.hadoop.fs.FileSystem.access$200(FileSystem.java:66)
    at org.apache.hadoop.fs.FileSystem$Cache.get(FileSystem.java:1404)
    at org.apache.hadoop.fs.FileSystem.get(FileSystem.java:254)
    at org.apache.hadoop.fs.FileSystem.get(FileSystem.java:123)
    at org.apache.hadoop.hbase.util.JVMClusterUtil.startup(JVMClusterUtil.java:191)
    at org.apache.hadoop.hbase.LocalHBaseCluster.startup(LocalHBaseCluster.java:420)
    at org.apache.hadoop.hbase.master.HMasterCommandLine.startMaster(HMasterCommandLine.java:149)
    at org.apache.hadoop.hbase.master.HMasterCommandLine.run(HMasterCommandLine.java:104)
    at org.apache.hadoop.util.ToolRunner.run(ToolRunner.java:65)
    at org.apache.hadoop.hbase.util.ServerCommandLine.doMain(ServerCommandLine.java:76)
    at org.apache.hadoop.hbase.master.HMaster.main(HMaster.java:2044)
Caused by: java.net.ConnectException: Connection refused
java.net.ConnectException:调用localhost/127.0.0.1:9000失败,连接异常:java.net.ConnectException:连接被拒绝
位于org.apache.hadoop.ipc.Client.wrapException(Client.java:1099)
位于org.apache.hadoop.ipc.Client.call(Client.java:1075)
位于org.apache.hadoop.ipc.RPC$Invoker.invoke(RPC.java:225)
位于com.sun.proxy.$Proxy11.getProtocolVersion(未知源)
位于org.apache.hadoop.ipc.RPC.getProxy(RPC.java:396)
位于org.apache.hadoop.ipc.RPC.getProxy(RPC.java:379)
位于org.apache.hadoop.hdfs.DFSClient.createRPCNamenode(DFSClient.java:119)
位于org.apache.hadoop.hdfs.DFSClient.(DFSClient.java:238)
位于org.apache.hadoop.hdfs.DFSClient.(DFSClient.java:203)
位于org.apache.hadoop.hdfs.DistributedFileSystem.initialize(DistributedFileSystem.java:89)
位于org.apache.hadoop.fs.FileSystem.createFileSystem(FileSystem.java:1386)
位于org.apache.hadoop.fs.FileSystem.access$200(FileSystem.java:66)
位于org.apache.hadoop.fs.FileSystem$Cache.get(FileSystem.java:1404)
位于org.apache.hadoop.fs.FileSystem.get(FileSystem.java:254)
位于org.apache.hadoop.fs.FileSystem.get(FileSystem.java:123)
位于org.apache.hadoop.hbase.util.JVMClusterUtil.startup(JVMClusterUtil.java:191)
位于org.apache.hadoop.hbase.LocalHBaseCluster.startup(LocalHBaseCluster.java:420)
位于org.apache.hadoop.hbase.master.HMasterCommandLine.startMaster(HMasterCommandLine.java:149)
位于org.apache.hadoop.hbase.master.HMasterCommandLine.run(HMasterCommandLine.java:104)
位于org.apache.hadoop.util.ToolRunner.run(ToolRunner.java:65)
位于org.apache.hadoop.hbase.util.ServerCommandLine.doMain(ServerCommandLine.java:76)
位于org.apache.hadoop.hbase.master.HMaster.main(HMaster.java:2044)
原因:java.net.ConnectException:连接被拒绝

我建议使用类似的发行版,并按照安装说明进行操作。如果您刚刚开始,那么这将比尝试自己设置要简单得多

无论如何,我从不需要设置
hbase.master
属性。您确实需要设置
hbase.rootdir
属性,但这应该指向HDFS目录,而不是本地
文件://
URL。这可能就是你的问题所在。您还需要一个正常工作的HDFS集群。CDH将非常容易地为开发人员机器建立一个伪分布式环境

以下是我使用CDH4的本地
hbase site.xml
,仅供参考:

<configuration>
  <property>
    <name>hbase.zookeeper.quorum</name>
    <value>localhost</value>
  </property>
  <property>
    <name>hbase.rootdir</name>
    <value>hdfs://localhost:8020/hbase</value>
  </property>
  <property>
    <name>hbase.cluster.distributed</name>
    <value>true</value>
  </property>
  <property>
    <name>dfs.support.append</name>
    <value>true</value>
  </property>
  <property>
    <name>dfs.client.read.shortcircuit</name>
    <value>true</value>
  </property>
</configuration>

抱歉吵闹,但当我读到标题时,我脑海里闪过的第一句话是:“把他放回码头。”@Adam:thanx,谢谢你的主意!)但事实上,我尝试了互联网上发布的几乎所有可能的解决方案来运行它,但似乎没有任何效果。
<configuration>
  <property>
    <name>fs.defaultFS</name>
    <value>hdfs://localhost:8020</value>
  </property>
</configuration>