Scala spark shell-如何避免抑制省略堆栈跟踪(例外)

Scala spark shell-如何避免抑制省略堆栈跟踪(例外),scala,apache-spark,spark-shell,Scala,Apache Spark,Spark Shell,我正在尝试运行spark shell中的scala文件。此文件调用其他一些已经加载到spark上下文中的jar文件 问题是,如果某个东西失败,它只打印stacktrace的一部分。有没有办法启用整个stacktrace myclassn: ClassifyFields : queryDb -> Problems extracting from DB at myclass.queryDb(ClassifyFields.java:231) at myclass.getColumnsWi

我正在尝试运行spark shell中的scala文件。此文件调用其他一些已经加载到spark上下文中的jar文件

问题是,如果某个东西失败,它只打印stacktrace的一部分。有没有办法启用整个stacktrace

myclassn: ClassifyFields : queryDb -> Problems extracting from DB
  at myclass.queryDb(ClassifyFields.java:231)
  at myclass.getColumnsWithKeys(ClassifyFields.java:258)
  ... 78 elided

将下面的值设置为零

vals.isettings.maxPrintString=0

就像下面的例子

scala> :power
Power mode enabled. :phase is at typer.
import scala.tools.nsc._, intp.global._, definitions._
Try :help or completions for vals._ and power._

scala> vals.isettings.maxPrintString
res0: Int = 800

scala> vals.isettings.maxPrintString=0
vals.isettings.maxPrintString: Int = 0

scala> vals.isettings.maxPrintString
res1: Int = 0
或者在异常发生后,使用下面的

lastException.printStackTrace

将下面的值设置为零

vals.isettings.maxPrintString=0

就像下面的例子

scala> :power
Power mode enabled. :phase is at typer.
import scala.tools.nsc._, intp.global._, definitions._
Try :help or completions for vals._ and power._

scala> vals.isettings.maxPrintString
res0: Int = 800

scala> vals.isettings.maxPrintString=0
vals.isettings.maxPrintString: Int = 0

scala> vals.isettings.maxPrintString
res1: Int = 0
或者在异常发生后,使用下面的

lastException.printStackTrace

尝试执行
Try/catch
块,在
catch
块内,将堆栈跟踪写入文件。尝试执行
Try/catch
块和
catch
块内,将stacktrace写入文件..有没有办法从带有Spark Scala代码的Jupyter笔记本中执行此操作?不知道Jupyter请检查文档有没有办法从带有Spark Scala代码的Jupyter笔记本中执行此操作?不知道Jupyter请检查文档