Apache spark 为什么Spark History Server不以本地群集模式显示已完成的应用程序?
我正在本地集群模式下测试spark程序:我已将spark.home属性设置为$spark_home(指向spark安装目录)。我启动了spark history server,其中spark.history.fs.logDirectory指向文件:/tmp/spark events。但是,当我成功执行测试并退出时。历史服务器没有显示任何内容,/tmp/spark events文件夹为空。如何使spark history server识别在本地群集模式下运行的我的spark程序?使用Apache spark 为什么Spark History Server不以本地群集模式显示已完成的应用程序?,apache-spark,Apache Spark,我正在本地集群模式下测试spark程序:我已将spark.home属性设置为$spark_home(指向spark安装目录)。我启动了spark history server,其中spark.history.fs.logDirectory指向文件:/tmp/spark events。但是,当我成功执行测试并退出时。历史服务器没有显示任何内容,/tmp/spark events文件夹为空。如何使spark history server识别在本地群集模式下运行的我的spark程序?使用spark.e
spark.eventLog.enabled
spark属性在spark测试中启用收集事件并重新开始