Apache spark Greenplum Spark连接器生成的外部表太多

Apache spark Greenplum Spark连接器生成的外部表太多,apache-spark,greenplum,Apache Spark,Greenplum,我正在使用Greenplum Spark Connector编程,我发现每次使用Spark获取表格数据时,都会在Greenplum中创建一个外部表格,并且在获取数据后不会删除。当我查询同一个表时,会生成另一个外部表。有人能告诉我,将来是否可以使用伸展台吗?此表是否会自动清理?spark作业完成后,应清理临时外部表。您使用的连接器版本是什么?greenplum-spark_2.11-1.7.0.jar或spark-2.4.4上的greenplum-spark_2.11-1.6.2也有相同的问题。在

我正在使用Greenplum Spark Connector编程,我发现每次使用Spark获取表格数据时,都会在Greenplum中创建一个外部表格,并且在获取数据后不会删除。当我查询同一个表时,会生成另一个外部表。有人能告诉我,将来是否可以使用伸展台吗?此表是否会自动清理?

spark作业完成后,应清理临时外部表。您使用的连接器版本是什么?greenplum-spark_2.11-1.7.0.jar或spark-2.4.4上的greenplum-spark_2.11-1.6.2也有相同的问题。在spark作业会话结束后,表将自动清理。如果作业失败,可能无法清理表。我们正在计划使用临时外部表的功能。这将保证外部表清理。该功能最有可能在Spark Connector的2.1.0版中发布(大约1-2个月)<代码>如果指定,则在Greenplum数据库中创建临时可读写外部表定义。临时外部表存在于特殊模式中;创建表时不能指定架构名称。临时外部表会在会话结束时自动删除。谢谢!您的回复对我帮助很大,期待2.1.0的发布。我的应用场景是通过spark cross数据库查询。查询完成后,程序有时不会自动退出。此时,需要终止该程序。这可能是无法清除外部表的原因。让我困惑的是,同一个表的每个查询都需要重新创建外部表。是否可以重用外部表?或者在完成查询后删除外部表是否会有任何问题?临时外部表应在spark作业完成后清理。您使用的连接器版本是什么?greenplum-spark_2.11-1.7.0.jar或spark-2.4.4上的greenplum-spark_2.11-1.6.2也有相同的问题。在spark作业会话结束后,表将自动清理。如果作业失败,可能无法清理表。我们正在计划使用临时外部表的功能。这将保证外部表清理。该功能最有可能在Spark Connector的2.1.0版中发布(大约1-2个月)<代码>如果指定,则在Greenplum数据库中创建临时可读写外部表定义。临时外部表存在于特殊模式中;创建表时不能指定架构名称。临时外部表会在会话结束时自动删除。谢谢!您的回复对我帮助很大,期待2.1.0的发布。我的应用场景是通过spark cross数据库查询。查询完成后,程序有时不会自动退出。此时,需要终止该程序。这可能是无法清除外部表的原因。让我困惑的是,同一个表的每个查询都需要重新创建外部表。是否可以重用外部表?或者在完成查询后删除外部表是否会有任何问题?