Apache spark Spark不';不显示所有配置单元数据库
如果我列出配置单元中的所有数据库,我会得到以下结果(我有两个表,默认为ans sbm): 但如果我尝试在spark中做同样的事情,我会得到这个Apache spark Spark不';不显示所有配置单元数据库,apache-spark,hadoop,hive,Apache Spark,Hadoop,Hive,如果我列出配置单元中的所有数据库,我会得到以下结果(我有两个表,默认为ans sbm): 但如果我尝试在spark中做同样的事情,我会得到这个 它不显示数据库SBM。您是否连接到该配置单元元存储?您是否在某处指定了元存储详细信息(即spark conf目录中的hive-site.xml)?似乎您已连接到本地merastore。我认为您需要将您的hive-site.xml复制到spark/conf目录 如果您使用ubuntu并定义了环境变量,请使用下一个命令: cp$HIVE\u HOME/c
它不显示数据库SBM。您是否连接到该配置单元元存储?您是否在某处指定了元存储详细信息(即spark conf目录中的hive-site.xml)?似乎您已连接到本地merastore。我认为您需要将您的hive-site.xml复制到spark/conf目录 如果您使用ubuntu并定义了环境变量,请使用下一个命令: cp$HIVE\u HOME/conf/HIVE-site.xml$SPARK\u HOME/conf