Scala 哪个jar有org.apache.spark.sql.types?

Scala 哪个jar有org.apache.spark.sql.types?,scala,apache-spark,apache-spark-sql,apache-spark-1.6,spark-submit,Scala,Apache Spark,Apache Spark Sql,Apache Spark 1.6,Spark Submit,我在Spark 1.x上,正在尝试读取csv文件。如果我需要指定一些数据类型,根据,我需要导入包org.apache.spark.sql.types中定义的类型 import org.apache.spark.sql.types.{StructType,StructField,StringType}; 当我在spark shell中以交互方式使用它时,它工作得很好,但是因为我想通过spark submit运行它,所以我编写了一些Scala代码来实现这一点。但是,当我试图编译Scala代码时,它

我在Spark 1.x上,正在尝试读取csv文件。如果我需要指定一些数据类型,根据,我需要导入包org.apache.spark.sql.types中定义的类型

import org.apache.spark.sql.types.{StructType,StructField,StringType};
当我在spark shell中以交互方式使用它时,它工作得很好,但是因为我想通过spark submit运行它,所以我编写了一些Scala代码来实现这一点。但是,当我试图编译Scala代码时,它给了我一个错误,说它找不到org.apache.spark.sql.types。我查找了
sparksql
的jar内容,但找不到其中定义的这些类型

那么,哪个jar有org.apache.spark.sql.types呢?

我查看了GitHub,发现这些类型可以在spark catalystjar中找到。这似乎不是直觉

还有,既然有了这个代码

org.json4s.JsonDSL._

我们最终得到了另一个依赖jar-json4s核心。

如果您使用任何标准构建工具(maven/sbt/gradle),您就不必为此烦恼了-
spark sql
jar将这些jar声明为其可传递的依赖项,这将使任何构建工具在使用
spark sql
时获取这些jar。@TzachZohar,这很有帮助。谢谢