Apache spark 如何在数据库中设置环境变量?

Apache spark 如何在数据库中设置环境变量?,apache-spark,environment-variables,databricks,Apache Spark,Environment Variables,Databricks,这个问题很简单,但我找不到关于如何在Databricks中设置环境变量的简单指南。另外,在驱动程序和执行程序上设置环境变量是否很重要(您会通过spark.conf实现这一点)?在创建之前感谢: 可以在创建集群时设置环境变量 单击高级选项=>输入环境变量 创建后: 选择您的集群=>单击编辑=>高级选项=>编辑或输入新的环境变量=>确认并重新启动 或 通过将我的环境变量声明附加到文件/databricks/spark/conf/spark-env.sh中,可以获得所需的结果。您可以按如下方式更改

这个问题很简单,但我找不到关于如何在Databricks中设置环境变量的简单指南。另外,在驱动程序和执行程序上设置环境变量是否很重要(您会通过spark.conf实现这一点)?在创建之前感谢:

可以在创建集群时设置环境变量

单击高级选项
=>输入环境变量

创建后:

选择您的集群=>单击编辑=>高级选项=>编辑或输入新的环境变量=>确认并重新启动

通过将我的环境变量声明附加到文件/databricks/spark/conf/spark-env.sh中,可以获得所需的结果。您可以按如下方式更改init文件:

%scala
dbutils.fs.put("dbfs:/databricks/init/set_spark_params.sh","""
  |#!/bin/bash
  |
  |cat << 'EOF' > /databricks/driver/conf/00-custom-spark-driver-defaults.conf
  |[driver] {
  |  "spark.sql.sources.partitionOverwriteMode" = "DYNAMIC"
  |}
  |EOF
  """.stripMargin, true)
%scala
dbutils.fs.put(“dbfs:/databricks/init/set_spark_params.sh”,”
|#!/bin/bash
|
|cat/databricks/driver/conf/00-custom-spark-driver-defaults.conf
|[司机]{
|“spark.sql.sources.partitionOverwriteMode”=“动态”
|}
|EOF
“.stripMargin,true)
有关详细信息,请参阅“”

希望这有帮助