Python Azure Databricks-将拼花文件写入策展区域
在将拼花地板文件写回DataLake Gen2时,正在创建其他文件 例如:Python Azure Databricks-将拼花文件写入策展区域,python,parquet,azure-data-lake,azure-databricks,azure-data-lake-gen2,Python,Parquet,Azure Data Lake,Azure Databricks,Azure Data Lake Gen2,在将拼花地板文件写回DataLake Gen2时,正在创建其他文件 例如: %python rawfile = "wasbs://xxxx@dxxxx.blob.core.windows.net/xxxx/2019-09-30/account.parquet" curatedfile = "wasbs://xxxx@xxxx.blob.core.windows.net/xxxx-Curated/2019-09-30/account.parquet" dfraw = spark.read.parq
%python
rawfile = "wasbs://xxxx@dxxxx.blob.core.windows.net/xxxx/2019-09-30/account.parquet"
curatedfile = "wasbs://xxxx@xxxx.blob.core.windows.net/xxxx-Curated/2019-09-30/account.parquet"
dfraw = spark.read.parquet(rawfile)
dfraw.write.parquet(curatedfile, mode = "overwrite")
display(dfraw)
提供的文件名(account.parquet)被记录到创建的文件夹中,而不是使用该名称创建文件
如何忽略这些附加文件并使用提供的名称写入文件。当用户在作业中写入文件时,DBIO将为您执行以下操作
- 使用唯一事务id写入的标记文件
- 将文件直接写入其最终位置
- 当作业提交时,将事务标记为已提交