如何将笔记本从本地计算机导入Azure Databricks门户?

如何将笔记本从本地计算机导入Azure Databricks门户?,azure,curl,databricks,spark-notebook,Azure,Curl,Databricks,Spark Notebook,如何在Azure Databricks中从本地导入笔记本 我在本地机器上有DBC格式的示例笔记本,需要通过notebook Rest API导入 curl -n -H "Content-Type: application/json" -X POST -d @- https://YOUR_DOMAIN/api/2.0/workspace/import <<JSON { "path": "/Users/user@example.com/new-notebook", "format

如何在Azure Databricks中从本地导入笔记本

我在本地机器上有DBC格式的示例笔记本,需要通过notebook Rest API导入

curl -n -H "Content-Type: application/json" -X POST -d @- https://YOUR_DOMAIN/api/2.0/workspace/import <<JSON
{
  "path": "/Users/user@example.com/new-notebook",
  "format": "SOURCE",
  "language": "SCALA",
  "content": "Ly8gRGF0YWJyaWNrcyBub3RlYm9vayBzb3VyY2UKcHJpbnQoImhlbGxvLCB3b3JsZCIpCgovLyBDT01NQU5EIC0tLS0tLS0tLS0KCg==",
  "overwrite": "false"
}
JSON

curl-n-H“内容类型:application/json”-X POST-d@-https://YOUR_DOMAIN/api/2.0/workspace/import 如果您有一个DBC文件,那么格式需要是
DBC
,并且
语言
被忽略

此外,
content
属性需要是DBC文件字节Base64编码,根据文档:

content参数包含base64编码的笔记本内容


如果使用bash,只需执行
base64 notebook.dbc

如果您有一个dbc文件,那么格式需要是
dbc
,并且
语言
被忽略

此外,
content
属性需要是DBC文件字节Base64编码,根据文档:

content参数包含base64编码的笔记本内容


如果使用bash,您只需执行
base64 notebook.dbc

即可,忽略源文件路径的原因是您需要将该文件转换为base64并将该字符串放入内容中。因此,路径变得无关紧要

如果您不想这样做,也不介意使用curl,文档还说您也可以这样管理:

curl -n -F path=/Users/user@example.com/project/ScalaExampleNotebook -F language=SCALA \
  -F content=@example.scala \
  https://<databricks-instance>/api/2.0/workspace/import

忽略源文件路径的原因是,您应该将该文件转换为base64并将该字符串放入内容中。因此,路径变得无关紧要

如果您不想这样做,也不介意使用curl,文档还说您也可以这样管理:

curl -n -F path=/Users/user@example.com/project/ScalaExampleNotebook -F language=SCALA \
  -F content=@example.scala \
  https://<databricks-instance>/api/2.0/workspace/import