Scala 无法导入spark.implicit.\使用Intellij
我试图Scala 无法导入spark.implicit.\使用Intellij,scala,apache-spark,Scala,Apache Spark,我试图导入spark.implicits。\n但它正在自动隐藏,无法查看运行状态 定义main方法或使用App特性扩展对象,该特性将作为执行的入口点 首先按以下方式创建SparkSession import org.apache.spark.sql.SparkSession object DF_Exple1 { val spark: SparkSession=SparkSession.builder().master("local").appName("sparkpika").getOrC
导入spark.implicits
。\n但它正在自动隐藏,无法查看运行状态 定义main方法或使用App特性扩展对象,该特性将作为执行的入口点
首先按以下方式创建SparkSession
import org.apache.spark.sql.SparkSession
object DF_Exple1 {
val spark: SparkSession=SparkSession.builder().master("local").appName("sparkpika").getOrCreate()
val data2018 =spark.read.csv("D:\\bigData\\File\\Sales.csv")
data2018.show()
}
现在输入
import org.apache.spark.sql.SparkSession
object DF1_Ex extends App{
val Spark = SparkSession
.builder()
.appName("Spark SQL basic example")
.config("spark.some.config.option", "some-value")
.getOrCreate()
Spark这里指的是上面已经创建的SparkSession您所说的“自动隐藏”是什么意思?什么是“it”?你有自动导入功能吗?如果是这样的话,它可能会自动删除未使用的导入。感谢Prasanna kumar,使用应用程序扩展对象是完美的。谢谢大家…@Gajraj请你把它标记为正确答案,然后投票。谢谢
import Spark.implicits._