Python 在DataRicks上使用dataframe对象的写入方法时出错

Python 在DataRicks上使用dataframe对象的写入方法时出错,python,databricks,sql-data-warehouse,Python,Databricks,Sql Data Warehouse,我正在尝试使用Azure Databricks和Python将一些数据写入Azure SQL数据仓库。我使用的代码如下: salesdf.write\ .format('com.databricks.spark.sqldw')\ .option('url', sqlDwUrlSmall)\ .option('dbtable', 'StgSales')\ .option( 'forward_spark_azure_storage_credentials','True')\

我正在尝试使用Azure Databricks和Python将一些数据写入Azure SQL数据仓库。我使用的代码如下:

salesdf.write\
   .format('com.databricks.spark.sqldw')\
   .option('url', sqlDwUrlSmall)\
   .option('dbtable', 'StgSales')\
   .option( 'forward_spark_azure_storage_credentials','True')\
   .option('tempdir', tempDir)\
   .mode('overwrite')\
   .save()

此方法在没有特定错误消息的情况下失败。回溯也没有任何意义。我非常确定我已经正确地说明了所有选项和格式,但它仍然不起作用。

不确定,但我认为问题在于语法。这是我在官方文件中发现的

df.write \
  .format("com.databricks.spark.sqldw") \
  .option("url", "jdbc:sqlserver://<the-rest-of-the-connection-string>") \
  .option("forwardSparkAzureStorageCredentials", "true") \
  .option("dbTable", "my_table_in_dw_copy") \
  .option("tempDir", "wasbs://<your-container-name>@<your-storage-account-name>.blob.core.windows.net/<your-directory-name>") \
  .save()
df.write\
.format(“com.databricks.spark.sqldw”)\
.option(“url”、“jdbc:sqlserver://”)\
.选项(“forwardSparkAzureStorageCredentials”、“true”)\
.选项(“dbTable”、“我的表格在dw副本中”)\
.option(“tempDir”、“wasbs://@.blob.core.windows.net/”)\
.save()
选中.option(“forwardSparkAzureStorageCredentials”,“true”)在代码中,似乎添加了下划线