Pyspark 将Python脚本提交到Databricks作业

Pyspark 将Python脚本提交到Databricks作业,pyspark,gitlab,databricks,azure-databricks,gitlab-api,Pyspark,Gitlab,Databricks,Azure Databricks,Gitlab Api,是否可以向databricks作业提交/配置spark python脚本(.py)文件 我在Pycharm IDE中进行开发,然后将代码推送/提交到我们的gitlab存储库。我的要求是,当python脚本移动到GitLab主分支时,我需要在databricks集群中创建新作业 如果可以使用gitlab.yml脚本在python脚本上创建databricks作业,我想得到一些建议 在databricks作业UI中,我可以看到spark jar或一个可以使用的笔记本,但我想知道我们是否可以提供一个p

是否可以向databricks作业提交/配置spark python脚本(.py)文件

我在Pycharm IDE中进行开发,然后将代码推送/提交到我们的gitlab存储库。我的要求是,当python脚本移动到GitLab主分支时,我需要在databricks集群中创建新作业

如果可以使用gitlab.yml脚本在python脚本上创建databricks作业,我想得到一些建议

在databricks作业UI中,我可以看到spark jar或一个可以使用的笔记本,但我想知道我们是否可以提供一个python文件

谢谢


Yuva

此功能目前在Databricks UI中不可用,但可以通过REST API访问。您需要使用数据结构

您将发现以下示例:


curl-n-H“内容类型:application/json”-X POST-d@-https:///api/2.0/jobs/create 谢谢拉斐尔,有可能在gitlab完成吗?只是好奇