群集上pyspark应用程序的SparkContext参数

群集上pyspark应用程序的SparkContext参数,pyspark,slurm,Pyspark,Slurm,我试图在集群上运行pyspark应用程序,但不确定如何并行执行。在本地运行应用程序时,我将SparkContext初始化为: sc = SparkContext("local", "appname") 在群集上运行时,我将此更改为: sc = SparkContext(os.sys['MASTER'], 'appname') 其中“主节点”设置为集群上的主节点(即。spark://node-1:7077). 应用程序开始运行,但随后就停止了(当我将master设置为“local”时,它在集群

我试图在集群上运行pyspark应用程序,但不确定如何并行执行。在本地运行应用程序时,我将SparkContext初始化为:

sc = SparkContext("local", "appname")
在群集上运行时,我将此更改为:

sc = SparkContext(os.sys['MASTER'], 'appname')
其中“主节点”设置为集群上的主节点(即。spark://node-1:7077). 应用程序开始运行,但随后就停止了(当我将master设置为“local”时,它在集群上运行良好)。我的提交脚本具有以下设置:

#SBATCH -N 20
#SBATCH --ntasks-per-node 4
#SBATCH --cpus-per-task 2
...
spark-submit --total-executor-cores 160 --executor-memory 1024G app.py
任何帮助都将不胜感激。谢谢