Apache spark 火花流,插座关闭后重新连接?

Apache spark 火花流,插座关闭后重新连接?,apache-spark,Apache Spark,我自己也试过找到这个,但是我从Spark编程指南中找不到任何线索 我试图弄清楚以下几点:我正在使用结构化流媒体,并从TCP套接字获取数据,如果套接字从远程服务器关闭,会发生什么?Spark是否正在尝试重新连接,或者是否存在让Spark尝试重新连接到远程TCP服务器的选项 如果一个开放的套接字不发送任何数据呢?在Spark关闭TCP连接并尝试打开一个新连接之后,是否要设置Spark超时 谢谢

我自己也试过找到这个,但是我从Spark编程指南中找不到任何线索

我试图弄清楚以下几点:我正在使用结构化流媒体,并从TCP套接字获取数据,如果套接字从远程服务器关闭,会发生什么?Spark是否正在尝试重新连接,或者是否存在让Spark尝试重新连接到远程TCP服务器的选项

如果一个开放的套接字不发送任何数据呢?在Spark关闭TCP连接并尝试打开一个新连接之后,是否要设置Spark超时

谢谢