Hadoop java.sql.SQLException:无法启动数据库'/var/lib/hive/metastore/metastore_db';蜂房

Hadoop java.sql.SQLException:无法启动数据库'/var/lib/hive/metastore/metastore_db';蜂房,hadoop,Hadoop,我是蜂巢的初学者。当我尝试执行任何配置单元命令时: hive>显示表格 它显示以下错误: FAILED: Error in metadata: javax.jdo.JDOFatalDataStoreException: Failed to start database '/var/lib/hive/metastore/metastore_db', see the next exception for details. NestedThrowables: java.sql.SQLException

我是蜂巢的初学者。当我尝试执行任何配置单元命令时:

hive>显示表格

它显示以下错误:

FAILED: Error in metadata: javax.jdo.JDOFatalDataStoreException: Failed to start database '/var/lib/hive/metastore/metastore_db', see the next exception for details.
NestedThrowables:
java.sql.SQLException: Failed to start database '/var/lib/hive/metastore/metastore_db', see the next exception for details.
FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.DDLTask

看起来像是derby锁定问题。您可以通过删除目录
/var/lib/hive/metastore/metastore\u db
中的锁文件临时修复此问题。但是这个问题将来也会发生

sudorm-rf/var/lib/hive/metastore/metastore\u db/*.lck

使用默认配置单元metastore embedded derby,不可能同时启动配置单元的多个实例。通过将hive metastore更改为mysql或postgres服务器,可以解决此问题

有关更改配置单元元存储的信息,请参阅以下cloudera文档


看起来像是derby锁定问题。您可以通过删除目录
/var/lib/hive/metastore/metastore\u db
中的锁文件临时修复此问题。但是这个问题将来也会发生

sudorm-rf/var/lib/hive/metastore/metastore\u db/*.lck

使用默认配置单元metastore embedded derby,不可能同时启动配置单元的多个实例。通过将hive metastore更改为mysql或postgres服务器,可以解决此问题

有关更改配置单元元存储的信息,请参阅以下cloudera文档


更新
hive site.xml
文件夹下的
~/hive/conf
名称/值,然后尝试以下操作:

 <name>javax.jdo.option.ConnectionURL</name>
 <value>jdbc:derby:;databaseName=/var/lib/hive/metastore/metastore_db;create=true</value>
javax.jdo.option.ConnectionURL
jdbc:derby:;databaseName=/var/lib/hive/metastore/metastore\u db;create=true

~/hive/conf
文件夹下更新
hive site.xml
,如下名称/值,然后尝试以下操作:

 <name>javax.jdo.option.ConnectionURL</name>
 <value>jdbc:derby:;databaseName=/var/lib/hive/metastore/metastore_db;create=true</value>
javax.jdo.option.ConnectionURL
jdbc:derby:;databaseName=/var/lib/hive/metastore/metastore\u db;create=true

当我忘记在同一节点上运行另一个
spark shell
实例时,我遇到了类似的错误。

当我忘记在同一节点上运行另一个
spark shell
实例时,我遇到了类似的错误。

在我的情况下,我需要创建一个目录并授予适当的权限:

$ sudo mkdir /var/lib/hive/metastore/
$ sudo chown hdfs:hdfs /var/lib/hive/metastore/

在我的情况下,我需要创建一个目录并授予适当的权限:

$ sudo mkdir /var/lib/hive/metastore/
$ sudo chown hdfs:hdfs /var/lib/hive/metastore/

我认为这应该发布在上。问题由我[此处][1][1]回答:我认为这应该发布在上。问题由我[此处][1][1]回答: