Python spark submit--主本地[n]无法创建多线程
我编写pyspark代码来处理一些spark sql数据 上个月,当我运行Python spark submit--主本地[n]无法创建多线程,python,apache-spark,pyspark,Python,Apache Spark,Pyspark,我编写pyspark代码来处理一些spark sql数据 上个月,当我运行spark submit--master local[25]时,它运行得非常好。从top命令中,我可以看到25个python线程 然而,没有什么变化,只是今天spark submit只创建了一个线程。我不知道什么样的事情会导致这样的问题 这是在AWS上的ubuntu服务器上,它有16个CPU核心。Spark版本为2.2.1,Python版本为3.6,请找出问题所在:有另一个用户在占用资源的同一实例上运行自己的Spark任务
spark submit--master local[25]
时,它运行得非常好。从top
命令中,我可以看到25个python线程
然而,没有什么变化,只是今天spark submit只创建了一个线程。我不知道什么样的事情会导致这样的问题
这是在AWS上的ubuntu服务器上,它有16个CPU核心。Spark版本为2.2.1,Python版本为3.6,请找出问题所在:有另一个用户在占用资源的同一实例上运行自己的Spark任务。您是否可以使用AWS EMR或自建集群检查集群上是否有作业占用资源?