Apache spark 如何捕捉火花';在pyspark本地模式下的s stderr日志

Apache spark 如何捕捉火花';在pyspark本地模式下的s stderr日志,apache-spark,pyspark,Apache Spark,Pyspark,我想查看Spark的stderr日志,但似乎找不到它们。在以前的经验中,我在Executors选项卡下从Spark UI启动它们,但在这个新环境中似乎只有线程转储。stdout和stderr日志在哪里 我正在本地模式下运行PySpark 2.4.3(无纱线/独立群集): Python版本:3.6.8 (我在JupyterLab跑步) SparkSession .builder .appName("theAppName") .config('spark.driver.memory',

我想查看Spark的
stderr
日志,但似乎找不到它们。在以前的经验中,我在Executors选项卡下从Spark UI启动它们,但在这个新环境中似乎只有线程转储。
stdout
stderr
日志在哪里

我正在本地模式下运行PySpark 2.4.3(无纱线/独立群集):

Python版本:3.6.8 (我在JupyterLab跑步)

SparkSession
  .builder
  .appName("theAppName")
  .config('spark.driver.memory','1g')
  .master('local[*]')
  .getOrCreate()