Pyspark Databricks在没有进展的情况下激发了工作

Pyspark Databricks在没有进展的情况下激发了工作,pyspark,databricks,azure-databricks,Pyspark,Databricks,Azure Databricks,嗯,我正在尝试在Databricks集群上运行一个使用Spark的作业 有时它没有进展,并且一直运行,没有任何错误,集群无限期地运行,请查看以下日志。我已经意识到,当集群中有0个工人时,可能会发生这种情况。但在本例中,我尝试使用3个工作节点运行,并遇到相同的问题 OpenJDK 64-Bit Server VM warning: ignoring option MaxPermSize=512m; support was removed in 8.0 Warning: Ignoring non-S

嗯,我正在尝试在Databricks集群上运行一个使用Spark的作业

有时它没有进展,并且一直运行,没有任何错误,集群无限期地运行,请查看以下日志。我已经意识到,当集群中有0个工人时,可能会发生这种情况。但在本例中,我尝试使用3个工作节点运行,并遇到相同的问题

OpenJDK 64-Bit Server VM warning: ignoring option MaxPermSize=512m; support was removed in 8.0
Warning: Ignoring non-Spark config property: eventLog.rolloverIntervalSeconds
Setting default log level to "WARN".
To adjust logging level use sc.setLogLevel(newLevel). For SparkR, use setLogLevel(newLevel).

[Stage 0:>                                                          (0 + 0) / 1]
[Stage 0:>                                                          (0 + 0) / 1]
[Stage 0:>                                                          (0 + 0) / 1]
[Stage 0:>                                                          (0 + 0) / 1]
[Stage 0:>                                                          (0 + 0) / 1]
[Stage 0:>                                                          (0 + 0) / 1]
[Stage 0:>                                                          (0 + 0) / 1]

知道可能是什么吗?

解决方案是从我的spark初始化器中删除以下配置

.config('spark.driver.host', '127.0.0.1')