Python 从Spark访问配置单元表
我面临一个问题:我无法使用Spark submit从Spark访问配置单元表,而我可以使用pyspark shell。下面是一段代码:Python 从Spark访问配置单元表,python,apache-spark,hive,pyspark,Python,Apache Spark,Hive,Pyspark,我面临一个问题:我无法使用Spark submit从Spark访问配置单元表,而我可以使用pyspark shell。下面是一段代码: from pyspark.sql import SparkSession, HiveContext spark = SparkSession \ .builder \ .appName("Python Spark SQL Hive integration example") \ .enableHiveSupport() \ .getOr
from pyspark.sql import SparkSession, HiveContext
spark = SparkSession \
.builder \
.appName("Python Spark SQL Hive integration example") \
.enableHiveSupport() \
.getOrCreate()
spark.sql("SHOW TABLES").show()
以下是pyspark(shell)的结果:
以下是spark submit的结果:
+--------+---------+-----------+
|database|tableName|isTemporary|
+--------+---------+-----------+
+--------+---------+-----------+
我尝试将spark conf目录添加到类路径中,用hive-site.xml添加“-files”,我还尝试了Hivecontext,得到了相同的结果。我尝试了scala:同样的结果
编辑:我没有连接到远程配置单元服务器,而是在同一个配置单元服务器上找到了解决方案: 我在.py文件中使用了一些UDF(用户定义函数)。出于某种原因,我认为这是在创建一个上下文,而我没有使用正确的上下文。它现在工作正常。可能与
+--------+---------+-----------+
|database|tableName|isTemporary|
+--------+---------+-----------+
+--------+---------+-----------+