Scala ApacheSpark-如何捕获所有异常并记录或传播异常?
我们正在使用SparkScala ApacheSpark-如何捕获所有异常并记录或传播异常?,scala,apache-spark,exception-handling,apache-spark-sql,Scala,Apache Spark,Exception Handling,Apache Spark Sql,我们正在使用Spark1.6.1版本和Scala 2.10版本来编写Spark应用程序 如何捕获所有异常并对其进行处理[记录或传播它]?我们正在使用Spark SQL从源代码创建数据帧,并在DF上应用转换,最后将DF写入某个数据库 我应该使用simpletry catch还是Scala 2.10 try,success,Failure 如果我使用Scala 2.10功能,它会捕获所有异常(致命和非致命)?我想知道这是Scala功能。到目前为止你的经验是什么(我指的是什么工作/没有按预期工作)。我
1.6.1版本
和Scala 2.10
版本来编写Spark应用程序
如何捕获所有异常并对其进行处理[记录或传播它]
?我们正在使用Spark SQL从源代码创建数据帧
,并在DF
上应用转换,最后将DF写入某个数据库
我应该使用simpletry catch
还是Scala 2.10 try,success,Failure
如果我使用Scala 2.10功能,它会捕获所有异常(致命和非致命)?我想知道这是Scala功能。到目前为止你的经验是什么(我指的是什么工作/没有按预期工作)。我是说你两个都试过了吗?一个问题很广泛。你的意思是你的工人有例外,你想让他们都在驱动程序上吗?有任何更新吗?我有完全相同的问题,但是spark是v2.0.2版本,scala是2.11.8版本。我想知道这是scala的特性。到目前为止你的经验是什么(我指的是什么工作/没有按预期工作)。我是说你两个都试过了吗?一个问题很广泛。你的意思是你的工人有例外,你想让他们都在驱动程序上吗?有任何更新吗?我有完全相同的问题,但是spark是v2.0.2,scala是2.11.8。