Apache spark Spark History Server未显示已完成的作业

Apache spark Spark History Server未显示已完成的作业,apache-spark,pyspark,Apache Spark,Pyspark,背景: 此处为Spark版本3(最新发布日期) 电子病历6.1 1-根据文档正确填写设置:(/etc/spark/conf/spark defaults.conf) 2-历史服务器服务已启动 3-生成并显示日志文件,具有打开权限 4-但仍然是顽固的History Server UI拒绝显示内容,尽管生成了作业的日志文件 我多次重新启动了hsitory服务器,但运气不佳 我真的没有选择了… 你知道哪里会出错吗?所以。。。我没有重新启动spark历史服务器,而是停止了它 猜猜看,什么。

背景:

  • 此处为Spark版本3(最新发布日期)
  • 电子病历6.1
1-根据文档正确填写设置:(
/etc/spark/conf/spark defaults.conf

2-历史服务器服务已启动

3-生成并显示日志文件,具有打开权限

4-但仍然是顽固的History Server UI拒绝显示内容,尽管生成了作业的日志文件

我多次重新启动了hsitory服务器,但运气不佳
我真的没有选择了…

你知道哪里会出错吗?

所以。。。我没有重新启动spark历史服务器,而是停止了它

猜猜看,什么。。。 那个网络用户还在那里

于是我走向终点站,准备杀戮,找到了马斯塔德,给了它一个头像

我刷新了。。。瞧

有时使用暴力是唯一的出路。。。 我仍然想知道到底发生了什么-从技术上讲,我仍然不太清楚