Apache spark 存储数据库/表的配置单元元存储仓库目录路径在哪里?

Apache spark 存储数据库/表的配置单元元存储仓库目录路径在哪里?,apache-spark,hive,apache-spark-sql,hdfs,apache-spark-1.5.2,Apache Spark,Hive,Apache Spark Sql,Hdfs,Apache Spark 1.5.2,我已经在Linux机器上安装了Spark 1.5.2 build with Hive。 配置单元元存储仓库目录的默认路径为:/user/Hive/warehouse 这是本地路径还是HDFS的路径?我问这个问题,因为我无法在Linux中搜索此路径 如果它是一个HDFS路径(最有可能),那么我们可以在没有安装Hadoop的情况下访问它吗 是,/user/hive/warehouse是HDFS路径。您需要安装并运行Hadoop服务(至少是namenode、secondary namenode、dat

我已经在Linux机器上安装了Spark 1.5.2 build with Hive。 配置单元元存储仓库目录的默认路径为:/user/Hive/warehouse

  • 这是本地路径还是HDFS的路径?我问这个问题,因为我无法在Linux中搜索此路径
  • 如果它是一个HDFS路径(最有可能),那么我们可以在没有安装Hadoop的情况下访问它吗

  • 是,/user/hive/warehouse是HDFS路径。您需要安装并运行Hadoop服务(至少是namenode、secondary namenode、datanode)以使HDFS可用。

    键入jps,查看是否所有服务都在运行。如果运行check metastore_db的路径/user/hive/warehouse

    中存在,则可以在本地以及hive-site.xml中创建仓库

    hive.metastore.warehouse.dir file:///tmp

    没有必要,您可以在没有hadoop的情况下运行hive。请参阅下面的答案