Scala 如何以编程方式知道spark程序是以本地模式还是群集模式运行?
我想知道在运行时,程序是在本地模式(仅一个节点)下运行还是在群集(例如,纱线客户端或纱线群集)下运行?只需使用Scala 如何以编程方式知道spark程序是以本地模式还是群集模式运行?,scala,apache-spark,Scala,Apache Spark,我想知道在运行时,程序是在本地模式(仅一个节点)下运行还是在群集(例如,纱线客户端或纱线群集)下运行?只需使用master属性: spark.sparkContext.master: String 你可以直接打电话 spark.sparkContext.isLocal 我明白了,对于spark local(仅一个节点)或spark standalone cluster,该值会有所不同吗?打印SparkConf属性
master
属性:
spark.sparkContext.master: String
你可以直接打电话
spark.sparkContext.isLocal
我明白了,对于spark local(仅一个节点)或spark standalone cluster,该值会有所不同吗?打印SparkConf属性