Apache spark spark的配置和环境变量之间有什么区别?
有一些配置我很困惑Apache spark spark的配置和环境变量之间有什么区别?,apache-spark,admin,Apache Spark,Admin,有一些配置我很困惑 spark.dynamicAllocation.enabled = true spark.dynamicAllocation.minExecutors = 3 spark.eventLog.dir=/home/rabindra/etl/logs SPARK_WORKER_DIR=/home/knoldus/work/sparkdata 在spark的这些变量中,我将使用spark-env.sh或spark-defaults.conf? 我们可以在spark standa
spark.dynamicAllocation.enabled = true
spark.dynamicAllocation.minExecutors = 3
spark.eventLog.dir=/home/rabindra/etl/logs
SPARK_WORKER_DIR=/home/knoldus/work/sparkdata
在spark的这些变量中,我将使用spark-env.sh或spark-defaults.conf?
我们可以在spark standalone cluster中执行哪些配置?前三个进入
spark defaults.conf
。最后一个进入spark env.sh
,如图所示——可能就是您正在使用的那个
我认为JVM参数和环境变量之间的差异可能是一个类比。如中所示,要应用于SparkConf
的配置(如应用程序名称、主控程序的URI或内存分配)是基于每个应用程序的
同时,环境变量,无论是与Spark还是其他相关的,都以每台机器为基础应用。当然,有时您将使用环境变量指定的特定于机器的设置会像纱线一样属于您的资源管理器
配置参数列表很大。有关更多信息,请参阅上面链接的文档