Apache spark SparkEnv是在Spark 2中创建SparkSession之后创建的吗?
在Spark 1.6中,创建新的Apache spark SparkEnv是在Spark 2中创建SparkSession之后创建的吗?,apache-spark,apache-spark-sql,Apache Spark,Apache Spark Sql,在Spark 1.6中,创建新的SparkContext对象后,会自动创建SparkEnv 在Spark 2.0中,SparkSession作为Spark SQL的入口点引入 在Spark 2中创建SparkSession后,SparkEnv是否自动创建?是,SparkEnv、SparkConf和SparkContext都是在创建SparkSession时自动创建的(这就是为什么Spark SQL中的相应代码更高级,并且希望更少出错) SparkEnv是Spark运行时基础设施的一部分,在使用S
SparkContext
对象后,会自动创建SparkEnv
在Spark 2.0中,SparkSession
作为Spark SQL的入口点引入
在Spark 2中创建SparkSession后,
SparkEnv
是否自动创建?是,SparkEnv
、SparkConf
和SparkContext
都是在创建SparkSession
时自动创建的(这就是为什么Spark SQL中的相应代码更高级,并且希望更少出错)
SparkEnv
是Spark运行时基础设施的一部分,在使用Spark SQL(或Spark MLlib)中的高级API之前,需要启动并运行Spark Core的所有低级服务。此处没有任何更改
scala> :type spark
org.apache.spark.sql.SparkSession
scala> spark.sparkContext
res1: org.apache.spark.SparkContext = org.apache.spark.SparkContext@1e86506c