Scala Spark2.4无法从同一个表覆盖表

Scala Spark2.4无法从同一个表覆盖表,scala,apache-spark-sql,spark2.4.4,Scala,Apache Spark Sql,Spark2.4.4,我试图使用insert overwrite语句将数据插入表中,但出现以下错误 org.apache.spark.sql.AnalysisException: Cannot overwrite a path that is also being read from.; 命令如下 spark.sql("INSERT OVERWRITE TABLE edm_hive SELECT run_number+1 from edm_hive") 我试图使用临时表,存储结果,然后在最终表

我试图使用insert overwrite语句将数据插入表中,但出现以下错误

org.apache.spark.sql.AnalysisException: Cannot overwrite a path that is also being read from.;
命令如下

spark.sql("INSERT OVERWRITE TABLE edm_hive SELECT run_number+1 from edm_hive")
我试图使用临时表,存储结果,然后在最终表中更新,但这也不起作用

我还试图使用一些变量将记录插入表中,但这也不起作用。 e、 g


请建议

此解决方案适合我。我在sparkSession中添加了该属性

spark.sql("INSERT into TABLE Feed_metadata_s2 values ('LOGS','StartTimestamp',$StartTimestamp)")
val spark = SparkSession.builder()
      .config("spark.sql.hive.convertMetastoreParquet","false")