Apache spark 如何在数据库中设置环境变量?
这个问题很简单,但我找不到关于如何在Databricks中设置环境变量的简单指南。另外,在驱动程序和执行程序上设置环境变量是否很重要(您会通过spark.conf实现这一点)?在创建之前感谢: 可以在创建集群时设置环境变量 单击高级选项=>输入环境变量 创建后: 选择您的集群=>单击编辑=>高级选项=>编辑或输入新的环境变量=>确认并重新启动 或 通过将我的环境变量声明附加到文件/databricks/spark/conf/spark-env.sh中,可以获得所需的结果。您可以按如下方式更改init文件:Apache spark 如何在数据库中设置环境变量?,apache-spark,environment-variables,databricks,Apache Spark,Environment Variables,Databricks,这个问题很简单,但我找不到关于如何在Databricks中设置环境变量的简单指南。另外,在驱动程序和执行程序上设置环境变量是否很重要(您会通过spark.conf实现这一点)?在创建之前感谢: 可以在创建集群时设置环境变量 单击高级选项=>输入环境变量 创建后: 选择您的集群=>单击编辑=>高级选项=>编辑或输入新的环境变量=>确认并重新启动 或 通过将我的环境变量声明附加到文件/databricks/spark/conf/spark-env.sh中,可以获得所需的结果。您可以按如下方式更改
%scala
dbutils.fs.put("dbfs:/databricks/init/set_spark_params.sh","""
|#!/bin/bash
|
|cat << 'EOF' > /databricks/driver/conf/00-custom-spark-driver-defaults.conf
|[driver] {
| "spark.sql.sources.partitionOverwriteMode" = "DYNAMIC"
|}
|EOF
""".stripMargin, true)
%scala
dbutils.fs.put(“dbfs:/databricks/init/set_spark_params.sh”,”
|#!/bin/bash
|
|cat/databricks/driver/conf/00-custom-spark-driver-defaults.conf
|[司机]{
|“spark.sql.sources.partitionOverwriteMode”=“动态”
|}
|EOF
“.stripMargin,true)
有关详细信息,请参阅“”
希望这有帮助