Hive 2.3.2本地模式找不到Hadoop安装

Hive 2.3.2本地模式找不到Hadoop安装,hadoop,hive,Hadoop,Hive,根据我所阅读的内容,您可以在没有Hadoop或HDFS的情况下运行Hive(如使用Spark或Tez),即在本地模式下,通过将fs.default.name和Hive.metastore.warehouse.dir设置为本地路径。但是,当我这样做时,我会得到一个错误: Starting Hive metastore service. Cannot find hadoop installation: $HADOOP_HOME or $HADOOP_PREFIX must be set or had

根据我所阅读的内容,您可以在没有Hadoop或HDFS的情况下运行Hive(如使用Spark或Tez),即在本地模式下,通过将
fs.default.name
Hive.metastore.warehouse.dir
设置为本地路径。但是,当我这样做时,我会得到一个错误:

Starting Hive metastore service.
Cannot find hadoop installation: $HADOOP_HOME or $HADOOP_PREFIX must be set or hadoop must be in the path
My hive-site.xml文件:

<property>
  <name>mapred.job.tracker</name>
  <value>local</value>
</property>
<property>
  <name>hive.metastore.schema.verification/name>
  <value>false</value>
</property>
<property>
  <name>hive.metastore.warehouse.dir</name>
  <value>file:///tmp/hive/warehouse</value>
</property>
<property>
  <name>fs.default.name</name>
  <value>file:///tmp/hive</value>
</property>

mapred.job.tracker
地方的
hive.metastore.schema.verification/name>
假的
hive.metastore.warehouse.dir
file:///tmp/hive/warehouse
fs.default.name
file:///tmp/hive

这是否意味着我仍然需要下载所有hadoop二进制文件并将hadoop_HOME设置为该路径?或者hive中的本地模式允许我在不需要所有内容的情况下运行吗?

hive不需要HDFS或Thread来执行,但它仍然需要Hadoop输入/输出格式,如Spark,谢谢。关于这方面的文档有点少。安装要求。。。Hadoop 2.x(首选)?