Configuration 启动配置单元时出错

Configuration 启动配置单元时出错,configuration,hive,Configuration,Hive,我在服务器上安装了Hive 1.1.0,收到以下错误消息: 线程“main”java.lang.NoClassDefFoundError中出现异常: org/apache/hadoop/map-red/JobConf 位于org.apache.hadoop.hive.conf.HiveConf.initialize(HiveConf.java:3694) 位于org.apache.hadoop.hive.conf.HiveConf.(HiveConf.java:3652) 在 org.apach

我在服务器上安装了
Hive 1.1.0
,收到以下错误消息:

线程“main”java.lang.NoClassDefFoundError中出现异常: org/apache/hadoop/map-red/JobConf 位于org.apache.hadoop.hive.conf.HiveConf.initialize(HiveConf.java:3694) 位于org.apache.hadoop.hive.conf.HiveConf.(HiveConf.java:3652) 在 org.apache.hadoop.hive.common.LogUtils.initHiveLog4jCommon(LogUtils.j ava:82) 在 org.apache.hadoop.hive.common.LogUtils.initHiveLog4j(LogUtils.java:66) 位于org.apache.hadoop.hive.cli.CliDriver.run(CliDriver.java:657) 位于org.apache.hadoop.hive.cli.CliDriver.main(CliDriver.java:641) 在sun.reflect.NativeMethodAccessorImpl.invoke0(本机方法)处 在 invoke(NativeMethodAccessorImpl.java:57) 在 sun.reflect.DelegatingMethodAccessorImpl.invoke(delegatingmethodaccess sorImpl.java:43) 位于java.lang.reflect.Method.invoke(Method.java:606) 在org.apache.hadoop.util.RunJar.main(RunJar.java:212)上,由以下原因引起: java.lang.ClassNotFoundException:org.apache.hadoop.mapred.JobConf 位于java.net.URLClassLoader$1.run(URLClassLoader.java:359) 在java.net.URLClassLoader$1.run(URLClassLoader.java:348) 位于java.security.AccessController.doPrivileged(本机方法) 位于java.net.URLClassLoader.findClass(URLClassLoader.java:347)
位于java.lang.ClassLoader.loadClass(ClassLoader.java:425) 位于sun.misc.Launcher$AppClassLoader.loadClass(Launcher.java:308) 位于java.lang.ClassLoader.loadClass(ClassLoader.java:358) ... 还有11个


感谢您的帮助

此错误可能是由于您的类路径配置错误造成的。您是否检查了HADOOP\u HOME、JAVA\u HOME、HIVE\u HOME的路径?

此错误可能是由于您的类路径配置错误造成的。你检查过HADOOP\u HOME、JAVA\u HOME、HIVE\u HOME的路径吗?

我检查过了,一切看起来都很好。我在bashrc文件中添加了HIVE_HOME、HADOOP_HOME和JAVA_HOME。我错了吗?不,我想你是对的。请包括您的配置文件bashrc、hadoop-env.sh和hive-env.sh。您还可以使用此链接检查安装的所有步骤这是我的bashrc:export JAVA_HOME=/usr/lib/jvm/JAVA-7-openjdk-amd64/jre#Set SPARK_HOME export SPARK_HOME=/lib/SPARK/export PATH=$SPARK_HOME/bin:$PATH#Set HIVE#HOME export HIVE(HIVE#HOME=/bin=/usr/local/HIVE/HIVE export PATH=$PATH:$HIVE#HOME/bin#Set Hadoop HOME导出HADOOP_HOME=/usr/local/HADOOP export PATH=$PATH:$HADOOP_HOME/bin我认为问题来自JAVA_HOME。JAVA_HOME变量必须指向jdk安装,而不是jre。另外,使用
updatealternations--config java
readlink-f$(哪个java)
(找到你的安装位置。我检查了它们,一切看起来都很好。我在bashrc文件中添加了HIVE_HOME、HADOOP_HOME和JAVA_HOME。我错了吗?不,我认为你是对的。请包括你的配置文件bashrc、HADOOP-env.sh和HIVE-env.sh。你也可以通过这个链接检查你安装的所有步骤。到目前为止这是我的bashrc:export JAVA#u HOME=/usr/lib/jvm/java-7-openjdk-amd64/jre#Set SPARK#u HOME export SPARK#u HOME=/lib/SPARK/export PATH=$SPARK#HOME/bin:$PATH#Set HIVE#HOME export HIVE#HIVE#HOME=$Hadoop#HOME=/usr/local/Hadoop导出路径:$PATH:$Hadoop#HOME/bin我认为问题来自java#变量必须指向jdk安装,而不是jre。此外,请使用
updatealternations--config java
readlink-f$(哪个java)
(查找安装位置)检查安装。