Scala 导入spark.implicits时发现错误

Scala 导入spark.implicits时发现错误,scala,apache-spark,Scala,Apache Spark,我正在使用spark 1.4.0 当我尝试使用以下命令导入spark.implicits时: 导入spark.implicits.\u,出现以下错误: <console>:19: error: not found: value spark import spark.implicits._ ^ :19:错误:未找到:值火花 导入spark.implicits_ ^ 有人能帮我解决这个问题吗?这是因为SparkSession在Spark 2.0中是可访问的,

我正在使用spark 1.4.0

当我尝试使用以下命令导入spark.implicits时:
导入spark.implicits.\u
,出现以下错误:

<console>:19: error: not found: value spark
   import spark.implicits._
          ^
:19:错误:未找到:值火花
导入spark.implicits_
^

有人能帮我解决这个问题吗?

这是因为SparkSession在Spark 2.0中是可访问的,
Spark
value是SparkSession类型的对象,在Spark REPL中

在Spark 1.4中使用

import sqlContext.implicits._

sqlContext
是在Spark REPL中为Spark 1.x自动创建的,这是因为SparkSession可以从Spark 2.0中访问,并且
Spark
Value是SparkSession类型的对象

在Spark 1.4中使用

import sqlContext.implicits._

sqlContext
是在Spark REPL for Spark 1.x中自动创建的

要使其完整,首先必须创建
sqlContext

import org.apache.spark.{SparkConf, SparkContext}
import org.apache.spark.sql.SQLContext

val conf = new SparkConf().setMaster("local").setAppName("my app")
val sc = new SparkContext(conf)
val sqlContext = new SQLContext(sc)
import sqlContext.implicits._

要使其完整,首先必须创建
sqlContext

import org.apache.spark.{SparkConf, SparkContext}
import org.apache.spark.sql.SQLContext

val conf = new SparkConf().setMaster("local").setAppName("my app")
val sc = new SparkContext(conf)
val sqlContext = new SQLContext(sc)
import sqlContext.implicits._