Warning: file_get_contents(/data/phpspider/zhask/data//catemap/0/hadoop/6.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Java 无法存储配置单元元存储服务器和配置单元外壳_Java_Hadoop_Hive_Apache Zookeeper - Fatal编程技术网

Java 无法存储配置单元元存储服务器和配置单元外壳

Java 无法存储配置单元元存储服务器和配置单元外壳,java,hadoop,hive,apache-zookeeper,Java,Hadoop,Hive,Apache Zookeeper,我用所有必需的属性更新了hive-site.xml,但我无法从何处理解此错误。如何将metastore连接到配置单元外壳并启动配置单元?在更新元存储属性之前,配置单元外壳正常工作。 有人能解决这个错误吗 [hadoop@hduserconf]$hive——服务元存储 正在启动配置单元元存储服务器 17/01/02 18:01:01警告conf.HiveConf:hive.metastore.local名称的HiveConf不存在 org.apache.thrift.transport.ttTra

我用所有必需的属性更新了hive-site.xml,但我无法从何处理解此错误。如何将metastore连接到配置单元外壳并启动配置单元?在更新元存储属性之前,配置单元外壳正常工作。 有人能解决这个错误吗

[hadoop@hduserconf]$hive——服务元存储 正在启动配置单元元存储服务器 17/01/02 18:01:01警告conf.HiveConf:hive.metastore.local名称的HiveConf不存在 org.apache.thrift.transport.ttTransportException:无法在地址0.0.0.0/0.0.0.0:9083上创建ServerSocket。 位于org.apache.thrift.transport.TServerSocket.(TServerSocket.java:109) 位于org.apache.thrift.transport.TServerSocket.(TServerSocket.java:91) 位于org.apache.thrift.transport.TServerSocket.(TServerSocket.java:83) 位于org.apache.hadoop.hive.metastore.TServerSocketKeepAlive。(TServerSocketKeepAlive.java:34) 位于org.apache.hadoop.hive.metastore.HiveMetaStore.startMetaStore(HiveMetaStore.java:5968) 位于org.apache.hadoop.hive.metastore.HiveMetaStore.main(HiveMetaStore.java:5909) 在sun.reflect.NativeMethodAccessorImpl.invoke0(本机方法)处 在sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57)中 在sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)中 位于java.lang.reflect.Method.invoke(Method.java:606) 位于org.apache.hadoop.util.RunJar.run(RunJar.java:221) 位于org.apache.hadoop.util.RunJar.main(RunJar.java:136) 线程“main”org.apache.thrift.transport.ttTransportException中出现异常:无法创建 地址0.0.0.0/0.0.0.0:9083上的ServerSocket。 位于org.apache.thrift.transport.TServerSocket.(TServerSocket.java:109) 位于org.apache.thrift.transport.TServerSocket.(TServerSocket.java:91) 位于org.apache.thrift.transport.TServerSocket.(TServerSocket.java:83) 位于org.apache.hadoop.hive.metastore.TServerSocketKeepAlive。(TServerSocketKeepAlive.java:34) 位于org.apache.hadoop.hive.metastore.HiveMetaStore.startMetaStore(HiveMetaStore.java:5968) 位于org.apache.hadoop.hive.metastore.HiveMetaStore.main(HiveMetaStore.java:5909) 在sun.reflect.NativeMethodAccessorImpl.invoke0(本机方法)处 在sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57)中 在sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)中 位于java.lang.reflect.Method.invoke(Method.java:606) 位于org.apache.hadoop.util.RunJar.run(RunJar.java:221) 位于org.apache.hadoop.util.RunJar.main(RunJar.java:136)

hive-site.xml:

 <property>
    <name>hive.exec.scratchdir</name>
    <value>/tmp/hive</value>
    <description>HDFS root scratch dir for Hive jobs which gets created with write all (733) permission. For each connecting user, an HDFS scratch dir: ${hive.exec.scr$
  </property>
  <property>
    <name>hive.exec.local.scratchdir</name>
    <value>/tmp/${user.name}</value>
    <description>Local scratch space for Hive jobs</description>
  </property>
  <property>
    <name>hive.downloaded.resources.dir</name>
    <value>/tmp/${user.name}_resources</value>
    <description>Temporary local directory for added resources in the remote file system.</description>
  </property> 
<property>
    <name>hive.scratch.dir.permission</name>
    <value>733</value>
    <description>The permission for the user specific scratch directories that get created.</description>
  </property>
 <property>
    <name>hive.metastore.warehouse.dir</name>
    <value>hdfs://localhost:54310/usr/local/hive</value>
    <description>
    Local or HDFS directory where Hive keeps table contents.
    </description>
</property>
<property>
  <name>hive.server2.thrift.port</name>
  <value>10000</value>
  <description>Port number of HiveServer2 Thrift interface.
  Can be overridden by setting $HIVE_SERVER2_THRIFT_PORT</description>
</property>

<property>
    <name>hive.metastore.local</name>
    <value>true</value>
    <description>
    Use false if a production metastore server is used.
    </description>
</property>
<property>
    <name>javax.jdo.option.ConnectionURL</name>
    <value>jdbc:mysql://localhost:3306/metastore</value>
  </property>
  <property>
    <name>javax.jdo.option.ConnectionUserName</name>
    <value>hiveuser</value>
  </property>
 <property>
    <name>javax.jdo.option.ConnectionPassword</name>
    <value>hive</value>
  </property>
  <property>
    <name>javax.jdo.option.ConnectionDriverName</name>
    <value>com.mysql.jdbc.Driver</value>
  </property>
  <property>
    <name>datanucleus.autoCreateSchema</name>
    <value>false</value>
  </property>
  <property>
    <name>datanucleus.fixedDatastore</name>
    <value>true</value>
  </property>

<property>
    <name>datanucleus.autoStartMechanism</name>
    <value>SchemaTable</value>
  </property>
  <property>
    <name>hive.metastore.uris</name>
    <value>thrift://192.168.122.1:9083</value>
  </property>
  <property>
    <name>hive.metastore.schema.verification</name>
    <value>false</value>
  </property>

hive.exec.scratchdir
/tmp/蜂箱
用于配置单元作业的HDFS根暂存目录,该作业是通过“全部写入”(733)权限创建的。对于每个连接的用户,一个HDFS scratch dir:${hive.exec.scr$
hive.exec.local.scratchdir
/tmp/${user.name}
用于配置单元作业的本地暂存空间
hive.download.resources.dir
/tmp/${user.name}\u资源
用于在远程文件系统中添加资源的临时本地目录。
hive.scratch.dir.permission
733
已创建的用户特定临时目录的权限。
hive.metastore.warehouse.dir
hdfs://localhost:54310/usr/local/hive
配置单元保存表内容的本地或HDFS目录。
hive.server2.thrift.port
10000
HiveServer2 Thrift接口的端口号。
可以通过设置$HIVE\u SERVER2\u THRIFT\u端口来覆盖
hive.metastore.local
真的
如果使用生产元存储服务器,则使用false。
javax.jdo.option.ConnectionURL
jdbc:mysql://localhost:3306/metastore
javax.jdo.option.ConnectionUserName
蜂巢用户
javax.jdo.option.ConnectionPassword
蜂箱
javax.jdo.option.ConnectionDriverName
com.mysql.jdbc.Driver
datanucleus.autoCreateSchema
假的
datanucleus.fixedDatastore
真的
自动启动机制
可策划
hive.metastore.uris
thrift://192.168.122.1:9083
hive.metastore.schema.verification
假的

端口9083似乎正忙,或者您的元存储未在运行,请尝试另一个端口
的值hive.metastore.uri
不是:
thrift://localhost:9083
?您可以提供localhost或ipaddress