Scala 在Spark中加载数据时处理异常

Scala 在Spark中加载数据时处理异常,scala,apache-spark,exception,Scala,Apache Spark,Exception,在创建数据帧时,我遵循这一点来处理异常。我尝试过读取生成org.apache.hadoop.hdfs.BlockMissingException的文件的代码(当然,在运行之前,我在代码中添加了此类异常的案例)。问题是仍然显示完整的堆栈跟踪。我的想法是使用这个句柄异常,以避免看到完整的跟踪,而只打印一条消息 还需要补充什么吗

在创建数据帧时,我遵循这一点来处理异常。我尝试过读取生成
org.apache.hadoop.hdfs.BlockMissingException
的文件的代码(当然,在运行之前,我在代码中添加了此类异常的案例)。问题是仍然显示完整的堆栈跟踪。我的想法是使用这个句柄异常,以避免看到完整的跟踪,而只打印一条消息

还需要补充什么吗