Scala 无法导入spark.implicit.\使用Intellij

Scala 无法导入spark.implicit.\使用Intellij,scala,apache-spark,Scala,Apache Spark,我试图导入spark.implicits。\n但它正在自动隐藏,无法查看运行状态 定义main方法或使用App特性扩展对象,该特性将作为执行的入口点 首先按以下方式创建SparkSession import org.apache.spark.sql.SparkSession object DF_Exple1 { val spark: SparkSession=SparkSession.builder().master("local").appName("sparkpika").getOrC

我试图
导入spark.implicits
。\n但它正在自动隐藏,无法查看运行状态

定义main方法或使用App特性扩展对象,该特性将作为执行的入口点

首先按以下方式创建SparkSession

import org.apache.spark.sql.SparkSession

object DF_Exple1 {
  val spark: SparkSession=SparkSession.builder().master("local").appName("sparkpika").getOrCreate()
  val data2018 =spark.read.csv("D:\\bigData\\File\\Sales.csv")
  data2018.show()
}
现在输入

import org.apache.spark.sql.SparkSession    
object DF1_Ex extends App{
val Spark = SparkSession
            .builder()
            .appName("Spark SQL basic example")
            .config("spark.some.config.option", "some-value")
            .getOrCreate()

Spark这里指的是上面已经创建的SparkSession

您所说的“自动隐藏”是什么意思?什么是“it”?你有自动导入功能吗?如果是这样的话,它可能会自动删除未使用的导入。感谢Prasanna kumar,使用应用程序扩展对象是完美的。谢谢大家…@Gajraj请你把它标记为正确答案,然后投票。谢谢
import Spark.implicits._