Scala 导入spark.implicits时发现错误
我正在使用spark 1.4.0 当我尝试使用以下命令导入spark.implicits时:Scala 导入spark.implicits时发现错误,scala,apache-spark,Scala,Apache Spark,我正在使用spark 1.4.0 当我尝试使用以下命令导入spark.implicits时: 导入spark.implicits.\u,出现以下错误: <console>:19: error: not found: value spark import spark.implicits._ ^ :19:错误:未找到:值火花 导入spark.implicits_ ^ 有人能帮我解决这个问题吗?这是因为SparkSession在Spark 2.0中是可访问的,
导入spark.implicits.\u
,出现以下错误:
<console>:19: error: not found: value spark
import spark.implicits._
^
:19:错误:未找到:值火花
导入spark.implicits_
^
有人能帮我解决这个问题吗?这是因为SparkSession在Spark 2.0中是可访问的,
Spark
value是SparkSession类型的对象,在Spark REPL中
在Spark 1.4中使用
import sqlContext.implicits._
值
sqlContext
是在Spark REPL中为Spark 1.x自动创建的,这是因为SparkSession可以从Spark 2.0中访问,并且Spark
Value是SparkSession类型的对象
在Spark 1.4中使用
import sqlContext.implicits._
值
sqlContext
是在Spark REPL for Spark 1.x中自动创建的要使其完整,首先必须创建sqlContext
import org.apache.spark.{SparkConf, SparkContext}
import org.apache.spark.sql.SQLContext
val conf = new SparkConf().setMaster("local").setAppName("my app")
val sc = new SparkContext(conf)
val sqlContext = new SQLContext(sc)
import sqlContext.implicits._
要使其完整,首先必须创建
sqlContext
import org.apache.spark.{SparkConf, SparkContext}
import org.apache.spark.sql.SQLContext
val conf = new SparkConf().setMaster("local").setAppName("my app")
val sc = new SparkContext(conf)
val sqlContext = new SQLContext(sc)
import sqlContext.implicits._