正确关闭spark流作业中的Hbase资源

正确关闭spark流作业中的Hbase资源,hbase,spark-streaming,Hbase,Spark Streaming,我正在设计一个spark流作业,它从流中获取id并创建id的RDD,RDD操作是从hbase表中获取id数据,处理并保存到hbase表。在每个spark executor中,我使用一个工厂创建一个HbaseConnection,在执行器的生命周期内保持其打开状态,并按照Hbase docs的建议创建Htable的新实例。Qn是当流作业停止或终止时,如何在执行器中正确关闭hbase连接。我也在考虑在executor中汇集多个连接,为一个好的设计寻找建议

我正在设计一个spark流作业,它从流中获取id并创建id的RDD,RDD操作是从hbase表中获取id数据,处理并保存到hbase表。在每个spark executor中,我使用一个工厂创建一个HbaseConnection,在执行器的生命周期内保持其打开状态,并按照Hbase docs的建议创建Htable的新实例。Qn是当流作业停止或终止时,如何在执行器中正确关闭hbase连接。我也在考虑在executor中汇集多个连接,为一个好的设计寻找建议