失败:元数据中出错:MetaException(消息:org.apache.hadoop.hbase.MasterNotRunningException:在hbase和配置单元集成中

失败:元数据中出错:MetaException(消息:org.apache.hadoop.hbase.MasterNotRunningException:在hbase和配置单元集成中,hbase,hive,Hbase,Hive,使用的组件:- -Ubuntu 12.04,hive(0.9.0),hbase(0.94.3),hadoop(0.20.2)-单节点,zookeeper-3.4.3,guava-11.0.2,hive-hbase-handler-0.9.0 教程:- 台阶 1) 启动hadoop, 2) 启动hbase主机 3) 启动hiveserver 4) 使用教程中的--auxpath参数启动配置单元外壳 (所有操作均无错误-JobTracker、HRegionServer、HMaster、DataNod

使用的组件:- -Ubuntu 12.04,hive(0.9.0),hbase(0.94.3),hadoop(0.20.2)-单节点,zookeeper-3.4.3,guava-11.0.2,hive-hbase-handler-0.9.0

教程:-

台阶 1) 启动hadoop, 2) 启动hbase主机 3) 启动hiveserver 4) 使用教程中的--auxpath参数启动配置单元外壳 (所有操作均无错误-JobTracker、HRegionServer、HMaster、DataNode、NameNode、SecondaryNameNode、TaskTracker、HQuorumPeer、Jps)

在我创建的配置单元外壳上,可以将表创建为

CREATE TABLE IF NOT EXISTS familia (id_familia INT,fk_veiculo INT,fk_cliente INT,nome STRING) ROW FORMAT delimited fields terminated by ',' STORED AS TEXTFILE;
load data local inpath '/home/trendwise/hive_data/tables_csv/familia.csv' overwrite into table familia;
但当我执行下面的查询时,并没有显示任何内容,只是光标闪烁。我等待了很长时间,然后显示错误

CREATE TABLE hbase_familia_1 (key int, id_familia int, fk_veiculo INT,fk_cliente INT,nome STRING)
STORED BY 'org.apache.hadoop.hive.hbase.HBaseStorageHandler'
WITH SERDEPROPERTIES("hbase.columns.mapping" = ":key, cf1:id_familia, cf2:fk_veiculo,cf3:fk_cliente, cf4:nome")
TBLPROPERTIES ("hbase.table.name" = "hbase_familia");
我在hbase外壳上做了
列表
,它没有显示任何我尝试的表

错误:-

FAILED: Error in metadata: MetaException(message:org.apache.hadoop.hbase.MasterNotRunningException: Retried 10 times
at org.apache.hadoop.hbase.client.HBaseAdmin.<init>(HBaseAdmin.java:127)
at org.apache.hadoop.hive.hbase.HBaseStorageHandler.getHBaseAdmin(HBaseStorageHandler.java:73)
at org.apache.hadoop.hive.hbase.HBaseStorageHandler.preCreateTable(HBaseStorageHandler.java:147)
at org.apache.hadoop.hive.metastore.HiveMetaStoreClient.createTable(HiveMetaStoreClient.java:398)
at org.apache.hadoop.hive.ql.metadata.Hive.createTable(Hive.java:538)
at org.apache.hadoop.hive.ql.exec.DDLTask.createTable(DDLTask.java:3305)
at org.apache.hadoop.hive.ql.exec.DDLTask.execute(DDLTask.java:242)
at org.apache.hadoop.hive.ql.exec.Task.executeTask(Task.java:134)
at org.apache.hadoop.hive.ql.exec.TaskRunner.runSequential(TaskRunner.java:57)
at org.apache.hadoop.hive.ql.Driver.launchTask(Driver.java:1326)
at org.apache.hadoop.hive.ql.Driver.execute(Driver.java:1118)
at org.apache.hadoop.hive.ql.Driver.run(Driver.java:951)
at org.apache.hadoop.hive.cli.CliDriver.processLocalCmd(CliDriver.java:258)
at org.apache.hadoop.hive.cli.CliDriver.processCmd(CliDriver.java:215)
at org.apache.hadoop.hive.cli.CliDriver.processLine(CliDriver.java:406)
at org.apache.hadoop.hive.cli.CliDriver.run(CliDriver.java:689)
at org.apache.hadoop.hive.cli.CliDriver.main(CliDriver.java:557)
at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:39)
at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:25)
at java.lang.reflect.Method.invoke(Method.java:597)
at org.apache.hadoop.util.RunJar.main(RunJar.java:156)
) FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.DDLTask
失败:元数据错误:MetaException(消息:org.apache.hadoop.hbase.MasterNotRunningException:重试10次
位于org.apache.hadoop.hbase.client.HBaseAdmin.(HBaseAdmin.java:127)
位于org.apache.hadoop.hive.hbase.hbastoragehandler.getHBaseAdmin(hbastoragehandler.java:73)
位于org.apache.hadoop.hive.hbase.hbastoragehandler.preCreateTable(hbastoragehandler.java:147)
位于org.apache.hadoop.hive.metastore.HiveMetaStoreClient.createTable(HiveMetaStoreClient.java:398)
位于org.apache.hadoop.hive.ql.metadata.hive.createTable(hive.java:538)
位于org.apache.hadoop.hive.ql.exec.ddlstask.createTable(ddlstask.java:3305)
位于org.apache.hadoop.hive.ql.exec.ddlstask.execute(ddlstask.java:242)
位于org.apache.hadoop.hive.ql.exec.Task.executeTask(Task.java:134)
位于org.apache.hadoop.hive.ql.exec.TaskRunner.runSequential(TaskRunner.java:57)
位于org.apache.hadoop.hive.ql.Driver.launchTask(Driver.java:1326)
位于org.apache.hadoop.hive.ql.Driver.execute(Driver.java:1118)
位于org.apache.hadoop.hive.ql.Driver.run(Driver.java:951)
位于org.apache.hadoop.hive.cli.CliDriver.processLocalCmd(CliDriver.java:258)
位于org.apache.hadoop.hive.cli.CliDriver.processCmd(CliDriver.java:215)
位于org.apache.hadoop.hive.cli.CliDriver.processLine(CliDriver.java:406)
位于org.apache.hadoop.hive.cli.CliDriver.run(CliDriver.java:689)
位于org.apache.hadoop.hive.cli.CliDriver.main(CliDriver.java:557)
在sun.reflect.NativeMethodAccessorImpl.invoke0(本机方法)处
位于sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:39)
在sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:25)中
位于java.lang.reflect.Method.invoke(Method.java:597)
位于org.apache.hadoop.util.RunJar.main(RunJar.java:156)
)失败:执行错误,从org.apache.hadoop.hive.ql.exec.ddlstask返回代码1
hbase-site.xml

<property>
 <name>hbase.rootdir</name>
 <value>hdfs://localhost:54310/hbase</value>
</property>
<property>
 <name>dfs.replication</name>
 <value>1</value>
</property>
<property>
 <name>hbase.zookeeper.property.dataDir</name>
 <value>/home/trendwise/hadoop/hbase-0.94.3/hbase_dataDir</value>
</property>
<property>
 <name>hbase.zookeeper.property.clientPort</name>
 <value>2222</value>
 <description>Property from ZooKeeper's config zoo.cfg.
 </description>
</property>
<property>
 <name>hbase.zookeeper.quorum</name>
 <value>localhost</value>
 <description></description>
</property>
<property>
 <name>hbase.cluster.distributed</name>
 <value>true</value>
 <description></description>
</property>

hbase.rootdir
hdfs://localhost:54310/hbase
dfs.replication
1.
hbase.zookeeper.property.dataDir
/home/trendwise/hadoop/hbase-0.94.3/hbase\u dataDir
hbase.zookeeper.property.clientPort
2222
来自ZooKeeper的config zoo.cfg的属性。
hbase.zookeeper.quorum
本地服务器
hbase.cluster.distributed
真的

将/etc/hosts文件中包含“127.0.1.1”的行更改为“127.0.0.1”,然后重新启动所有内容。另外,将hbase-site.xml复制到HIVE_HOME/conf目录中。

hbase无法启动其所有守护进程…因此,您可能会在hbase日志中获得线索…查看您是否可以在hbase日志中找到任何内容并报告错误…希望这能起作用…

HIVE似乎无法找到所需的jar文件

尝试使用所有

hive–auxpath/path to-/hive-examples.jar;其他jar文件用分号分隔太多

然后尝试将hbase conf文件放入配置单元conf目录

并在hive-site.xml或hive-env.sh中定义辅助路径,然后重试

这些错误主要是由于hive无法连接到hadoop或hbase


并检查所有守护进程是否正在运行hbase,您可以在hbase外壳上执行所有操作。

您是否使用
jps
验证了您的主机是否正在运行?您是否管理自己的ZooKeeper实例?如果没有,您不应该设置所有这些ZooKeeper属性,您可以在
$HBASE\u HOME/conf/HBASE env.sh
@Pieterjan中设置
HBASE\u MANAGES\u ZK
,HMaster在
jps
之后运行,但是没有HRegionServer&HQuorumPeer,这些是否如此重要?我不是在管理我自己的ZooKeeper,因此,我在HBASE-env.sh中取消注释
export HBASE\u MANAGES\u ZK=true
,并撤消HBASE.cluster.distributedhbase.zookeer.property.clientPort,HBASE.z ookeeper.quorum properties这是正确的。据我所知,只要HBase管理ZooKeeper,就不需要运行HRegionServer和HQuorumPeer。至少在psuedo分布式模式下是这样。在这些更改之后,您仍然会得到相同的错误?您的日志文件怎么说?我在/etc/hosts中做了更改,改为127.0.0.1 localhost 127.0.0.1 TrendwiseAnalytics 127.0.0.1 TrendwiseAnalytics#127.0.1.1 TrendwiseAnalytics&复制了hbase site.xml,重新启动机器,但仍然存在相同的问题&在hive.log文件ERROR DataNucleus.Plugin(Log4JLogger.java:ERROR(115))-捆绑包“org.eclipse.jdt.core”需要“org.eclipse.core.resources”,但无法解析它-SecurityException:java.lang.SecurityException:在尝试查找JAAS配置时无法找到登录配置。另外,当我使用stop-HBase.sh关闭HBase master时,停止和不关闭会花费更多时间。因此关闭终端并终止该进程这些情况表明您的HBase运行不正常。请请确认您至少已在hbase-site.xml文件中指定了以下所有属性:hbase.rootdir、custer.distributed、hbase.zookeer.quorum、hbase.zookeer.property.clientPort hbase.zookeer.property.datadir所有hadoop组件正在运行&对于hbase-HMaster、HRegionServer、hqourumpeer,它再次给出错误-->失败:元数据错误:MetaException(消息:org.apache.hadoop.hbase.client.NoServerForRegionException:在尝试10次后找不到区域。I
<property>
 <name>hbase.rootdir</name>
 <value>hdfs://localhost:54310/hbase</value>
</property>
<property>
 <name>dfs.replication</name>
 <value>1</value>
</property>
<property>
 <name>hbase.zookeeper.property.dataDir</name>
 <value>/home/trendwise/hadoop/hbase-0.94.3/hbase_dataDir</value>
</property>
<property>
 <name>hbase.zookeeper.property.clientPort</name>
 <value>2222</value>
 <description>Property from ZooKeeper's config zoo.cfg.
 </description>
</property>
<property>
 <name>hbase.zookeeper.quorum</name>
 <value>localhost</value>
 <description></description>
</property>
<property>
 <name>hbase.cluster.distributed</name>
 <value>true</value>
 <description></description>
</property>