Hive 在没有Hadoop/HDFS的情况下使用配置单元元存储服务

Hive 在没有Hadoop/HDFS的情况下使用配置单元元存储服务,hive,apache-spark-sql,metastore,Hive,Apache Spark Sql,Metastore,我知道这个问题有点奇怪。我喜欢Hadoop和HDFS,但最近在使用Hive Metastore开发SparkSQL 我想使用SparkSQL作为一个垂直的SQL引擎来跨不同的数据源运行OLAP查询,比如RDB、Mongo、Elastic。。。没有ETL过程。然后,我使用相应的配置单元存储处理程序将不同的模式注册为Metastore中的外部表 此外,HDFS在我的工作中没有用作数据源。然后,给定的Map/R已经被Spark engine取代。在我看来,Hadoop/HDFS除了为Hive的安装奠定

我知道这个问题有点奇怪。我喜欢Hadoop和HDFS,但最近在使用Hive Metastore开发SparkSQL

我想使用SparkSQL作为一个垂直的SQL引擎来跨不同的数据源运行OLAP查询,比如RDB、Mongo、Elastic。。。没有ETL过程。然后,我使用相应的配置单元存储处理程序将不同的模式注册为Metastore中的外部表

此外,HDFS在我的工作中没有用作数据源。然后,给定的Map/R已经被Spark engine取代。在我看来,Hadoop/HDFS除了为Hive的安装奠定基础之外是无用的。我不想全部买下

我想知道如果我只启动Hive metastore服务而没有Hadoop/HDFS来支持SparkSQL,会发生什么样的问题。我会进入丛林吗?

你需要的是(在页面中搜索“蜂巢、地图缩小和本地模式”)

也可能有帮助

仅当您在本地进行试验时,才建议使用此配置。但在这种情况下,您只需要元存储

也来自

Spark SQL使用配置单元元存储,即使我们没有将其配置为。未配置时,它使用默认的Derby DB作为元存储

所以这似乎是相当合法的

  • 在Hive中安排元存储
  • 在本地模式下启动配置单元
  • 让Spark使用Hive metastore
  • 将Spark用作配置单元支持的所有数据源的SQL引擎