Hadoop 从python文件创建配置单元表并使用spark submit运行它失败
我正在尝试使用spark submit运行一些py文件: 我有py文件和代码:(示例创建配置单元表) 失败,退出代码:13(原因:用户应用程序已退出,状态为1) 但是这个很好用:Hadoop 从python文件创建配置单元表并使用spark submit运行它失败,hadoop,pyspark,hive,apache-spark-sql,spark-submit,Hadoop,Pyspark,Hive,Apache Spark Sql,Spark Submit,我正在尝试使用spark submit运行一些py文件: 我有py文件和代码:(示例创建配置单元表) 失败,退出代码:13(原因:用户应用程序已退出,状态为1) 但是这个很好用: import pyspark from pyspark.sql import SparkSession spark = SparkSession.builder.enableHiveSupport().getOrCreate() population_query = """ ins
import pyspark
from pyspark.sql import SparkSession
spark = SparkSession.builder.enableHiveSupport().getOrCreate()
population_query = """
insert into default.o_in select * from default.o
"""
有人知道这个问题吗
import pyspark
from pyspark.sql import SparkSession
spark = SparkSession.builder.enableHiveSupport().getOrCreate()
population_query = """
insert into default.o_in select * from default.o
"""