Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/scala/18.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
使用azure DataRicks scala将数据从blob存储加载到sql数据仓库_Scala_Azure_Azure Databricks - Fatal编程技术网

使用azure DataRicks scala将数据从blob存储加载到sql数据仓库

使用azure DataRicks scala将数据从blob存储加载到sql数据仓库,scala,azure,azure-databricks,Scala,Azure,Azure Databricks,我正在尝试使用azure Datatricks scala将数据从blob存储加载到SQL数据仓库 spark.conf.set("spark.sql.parquet.writeLegacyFormat","true") df.write.format("com.databricks.spark.sqldw") .option("url",sqlDwUrlSmall) .option("dbtable", "Person") .option("forward_spark_

我正在尝试使用azure Datatricks scala将数据从blob存储加载到SQL数据仓库

spark.conf.set("spark.sql.parquet.writeLegacyFormat","true")    
df.write.format("com.databricks.spark.sqldw")
.option("url",sqlDwUrlSmall)
.option("dbtable", "Person")        
.option("forward_spark_azure_storage_credentials","True")
.option("tempdir",tempDir).mode("overwrite").save()
我得到了这个错误

基础SQLException: -com.microsoft.sqlserver.jdbc.SQLServerException:由于内部错误,外部文件访问失败:“访问时出错。” HDFS:调用HdfsBridge_IsDirExist时引发Java异常。JAVA 异常消息:HdfsBridge::isDirExist-意外错误 检查目录是否存在时遇到问题: StorageException:此请求无权执行此操作 操作。“[ErrorCode=105019][SQLState=S0001]


使用azure Datatricks scala成功地将数据从blob存储加载到sql数据仓库

spark.conf.set("spark.sql.parquet.writeLegacyFormat","true")    
df.write.format("com.databricks.spark.sqldw")
.option("url",sqlDwUrlSmall)
.option("dbtable", "Person")        
.option("forward_spark_azure_storage_credentials","True")
.option("tempdir",tempDir).mode("overwrite").save()
  • 确保您通过了正确的路径

  • 确保按以下格式传递“tempDir”

tempDir=“wasbs://”+blobContainer+“@”+blobStorage+“/tempDirs”

参考资料:


希望这有帮助。

使用azure databricks scala成功地将数据从blob存储加载到sql数据仓库

spark.conf.set("spark.sql.parquet.writeLegacyFormat","true")    
df.write.format("com.databricks.spark.sqldw")
.option("url",sqlDwUrlSmall)
.option("dbtable", "Person")        
.option("forward_spark_azure_storage_credentials","True")
.option("tempdir",tempDir).mode("overwrite").save()
  • 确保您通过了正确的路径

  • 确保按以下格式传递“tempDir”

tempDir=“wasbs://”+blobContainer+“@”+blobStorage+“/tempDirs”

参考资料:


希望这有帮助。

我正在使用access key从blob存储中获取数据我正在使用access key从blob存储中获取数据