Python 从pyspark调用getNextException

Python 从pyspark调用getNextException,python,jdbc,pyspark,py4j,Python,Jdbc,Pyspark,Py4j,我试图通过pyspark将数据写入db2,并希望从失败中获得更好的错误消息。我知道我可以遇到如下java错误: from py4j.protocol import Py4JJavaError try: data_frame.write.jdbc('jdbc...', table='some_table', properties='my jdbc properties') except Py4JJavaError as err: print(err.java_exception)

我试图通过pyspark将数据写入db2,并希望从失败中获得更好的错误消息。我知道我可以遇到如下java错误:

from py4j.protocol import Py4JJavaError

try:
    data_frame.write.jdbc('jdbc...', table='some_table', properties='my jdbc properties')
except Py4JJavaError as err:
    print(err.java_exception)
但这会带来一些类似于

com.ibm.db2.jcc.am.BatchUpdateException...
Use getNextException() to retrieve the exceptions for specific batched elements.

有没有办法通过pyspark使用
getNextException()
来获取错误的详细信息?

我可以通过
str(err)
获得完整的堆栈跟踪,包括导致异常的原因()。