如何将笔记本从本地计算机导入Azure Databricks门户?
如何在Azure Databricks中从本地导入笔记本 我在本地机器上有DBC格式的示例笔记本,需要通过notebook Rest API导入如何将笔记本从本地计算机导入Azure Databricks门户?,azure,curl,databricks,spark-notebook,Azure,Curl,Databricks,Spark Notebook,如何在Azure Databricks中从本地导入笔记本 我在本地机器上有DBC格式的示例笔记本,需要通过notebook Rest API导入 curl -n -H "Content-Type: application/json" -X POST -d @- https://YOUR_DOMAIN/api/2.0/workspace/import <<JSON { "path": "/Users/user@example.com/new-notebook", "format
curl -n -H "Content-Type: application/json" -X POST -d @- https://YOUR_DOMAIN/api/2.0/workspace/import <<JSON
{
"path": "/Users/user@example.com/new-notebook",
"format": "SOURCE",
"language": "SCALA",
"content": "Ly8gRGF0YWJyaWNrcyBub3RlYm9vayBzb3VyY2UKcHJpbnQoImhlbGxvLCB3b3JsZCIpCgovLyBDT01NQU5EIC0tLS0tLS0tLS0KCg==",
"overwrite": "false"
}
JSON
curl-n-H“内容类型:application/json”-X POST-d@-https://YOUR_DOMAIN/api/2.0/workspace/import 如果您有一个DBC文件,那么格式需要是DBC
,并且语言
被忽略
此外,content
属性需要是DBC文件字节Base64编码,根据文档:
content参数包含base64编码的笔记本内容
如果使用bash,只需执行base64 notebook.dbc
如果您有一个dbc文件,那么格式需要是dbc
,并且语言
被忽略
此外,content
属性需要是DBC文件字节Base64编码,根据文档:
content参数包含base64编码的笔记本内容
如果使用bash,您只需执行base64 notebook.dbc
即可,忽略源文件路径的原因是您需要将该文件转换为base64并将该字符串放入内容中。因此,路径变得无关紧要
如果您不想这样做,也不介意使用curl,文档还说您也可以这样管理:
curl -n -F path=/Users/user@example.com/project/ScalaExampleNotebook -F language=SCALA \
-F content=@example.scala \
https://<databricks-instance>/api/2.0/workspace/import
忽略源文件路径的原因是,您应该将该文件转换为base64并将该字符串放入内容中。因此,路径变得无关紧要
如果您不想这样做,也不介意使用curl,文档还说您也可以这样管理:
curl -n -F path=/Users/user@example.com/project/ScalaExampleNotebook -F language=SCALA \
-F content=@example.scala \
https://<databricks-instance>/api/2.0/workspace/import