Apache spark 是否可以在合并操作中读取数据帧
在下面的示例中,新产品是一个数据帧。是否可以在合并操作中直接使用产品\u new,而不是声明为临时表?当前,product\u new数据帧存储为一个名为product\u new\u temp的诱人数据框,用于合并操作。在合并操作中是否直接调用产品\u new数据帧?当我在合并中直接使用product\u new时,会出现无效的表/视图错误。spark/databricksApache spark 是否可以在合并操作中读取数据帧,apache-spark,databricks,azure-databricks,Apache Spark,Databricks,Azure Databricks,在下面的示例中,新产品是一个数据帧。是否可以在合并操作中直接使用产品\u new,而不是声明为临时表?当前,product\u new数据帧存储为一个名为product\u new\u temp的诱人数据框,用于合并操作。在合并操作中是否直接调用产品\u new数据帧?当我在合并中直接使用product\u new时,会出现无效的表/视图错误。spark/databricks product = spark.read.format('csv').options(header='true',inf
product = spark.read.format('csv').options(header='true',inferSchema='true').load("/FileStore/tables/product-1.csv")
product.write.format("delta").saveAsTable("product_delta_table")
product_new = spark.read.format('csv').options(header='true',inferSchema='true').load("/FileStore/tables/product_delta.csv")
product_new.createOrReplaceTempView("product_new_temp")
%sql
MERGE INTO product_delta_table
USING **product_new_temp**
ON product_delta_table.productCode = **product_new_temp**.productCode
WHEN MATCHED
THEN UPDATE SET *
WHEN NOT MATCHED THEN INSERT *;
select * from product_delta_table order by productCode
合并两个数据帧然后插入怎么样?谢谢Maxime。检查是否可以在合并中直接使用dataframe,而不将其声明为增量表或临时表。