Scala Azure Datarics-从Gen2 DataLake存储运行Spark Jar
我正在尝试从Azure Databrics运行spark提交。目前,我可以创建一个作业,将jar上传到Databrics工作区,然后运行它 我的问题是:Scala Azure Datarics-从Gen2 DataLake存储运行Spark Jar,scala,azure,apache-spark,azure-databricks,Scala,Azure,Apache Spark,Azure Databricks,我正在尝试从Azure Databrics运行spark提交。目前,我可以创建一个作业,将jar上传到Databrics工作区,然后运行它 我的问题是: 有没有一种方法可以访问驻留在GEN2 DataLake存储上的jar,并从Databrics workspace甚至Azure ADF进行spark提交?(因为工作区和GEN2存储之间的通信受“fs.azure.account.key”保护) 有没有办法从databrics笔记本上提交spark 有没有办法访问驻留在GEN2 DataLake存
如果回答了您的问题,请单击“标记为答案”和“向上投票”。如果您有任何进一步的疑问,请告诉我们。最后,我想出了如何运行此程序:
您可以安排databricks笔记本。看,我已经做到了。(我在第一行中写道。)我正在寻找一种方法来具体完成第1点和第2点。你能对此提出建议或评论吗?谢谢你的回复。在我的帖子中,我提到我已经能够做到这一点。想寻找一种方法来完成一个普通的Spark提交,就像我们在脚本或Jupyter笔记本上做的那样。