Hive 在没有Hadoop/HDFS的情况下使用配置单元元存储服务
我知道这个问题有点奇怪。我喜欢Hadoop和HDFS,但最近在使用Hive Metastore开发SparkSQL 我想使用SparkSQL作为一个垂直的SQL引擎来跨不同的数据源运行OLAP查询,比如RDB、Mongo、Elastic。。。没有ETL过程。然后,我使用相应的配置单元存储处理程序将不同的模式注册为Metastore中的外部表 此外,HDFS在我的工作中没有用作数据源。然后,给定的Map/R已经被Spark engine取代。在我看来,Hadoop/HDFS除了为Hive的安装奠定基础之外是无用的。我不想全部买下 我想知道如果我只启动Hive metastore服务而没有Hadoop/HDFS来支持SparkSQL,会发生什么样的问题。我会进入丛林吗?你需要的是(在页面中搜索“蜂巢、地图缩小和本地模式”) 也可能有帮助 仅当您在本地进行试验时,才建议使用此配置。但在这种情况下,您只需要元存储 也来自 Spark SQL使用配置单元元存储,即使我们没有将其配置为。未配置时,它使用默认的Derby DB作为元存储 所以这似乎是相当合法的Hive 在没有Hadoop/HDFS的情况下使用配置单元元存储服务,hive,apache-spark-sql,metastore,Hive,Apache Spark Sql,Metastore,我知道这个问题有点奇怪。我喜欢Hadoop和HDFS,但最近在使用Hive Metastore开发SparkSQL 我想使用SparkSQL作为一个垂直的SQL引擎来跨不同的数据源运行OLAP查询,比如RDB、Mongo、Elastic。。。没有ETL过程。然后,我使用相应的配置单元存储处理程序将不同的模式注册为Metastore中的外部表 此外,HDFS在我的工作中没有用作数据源。然后,给定的Map/R已经被Spark engine取代。在我看来,Hadoop/HDFS除了为Hive的安装奠定