Apache spark spark是否足够聪明,可以在执行聚合时避免冗余值?
我有以下数据集Apache spark spark是否足够聪明,可以在执行聚合时避免冗余值?,apache-spark,dataset,aggregation,Apache Spark,Dataset,Aggregation,我有以下数据集 case class Department(deptId:String,locations:Seq[String]) // using spark 2.0.2 // I have a Dataset `ds` of type Department +-------+--------------------+ |deptId | locations | +-------+--------------------+ | d1|[delhi,kera
case class Department(deptId:String,locations:Seq[String])
// using spark 2.0.2
// I have a Dataset `ds` of type Department
+-------+--------------------+
|deptId | locations |
+-------+--------------------+
| d1|[delhi,kerala] |
| d1|[] |
| dp2|[] |
| dp2|[hyderabad] |
+-------+--------------------+
我打算把它改成
// Dataset `result` of type Department itself
+-------+--------------------+
|deptId | locations |
+-------+--------------------+
| d1|[delhi,kerala] |
| dp2|[hyderabad] |
+-------+--------------------+
我做以下几点
val flatten = udf(
(xs: Seq[Seq[String]]) => xs.flatten)
val result = ds.groupBy("deptId").
agg(flatten(collect_list("locations")).as("locations")
我的问题是,Spark是否足够聪明,不会在空的位置
ie[]
PS:我不确定这是不是一个愚蠢的问题。是和否:
- 是-
执行地图端聚合,因此如果每个分组键有多个值,则数据将在洗牌之前合并collect\u list
- 否-因为空列表与缺少的数据不同。如果这不是期望的行为,那么应该首先过滤数据
但请记住,如果ds.filter(size($"location") > 0).groupBy("deptId").agg(...)
只有空数组,则会产生不同的结果deptId
- 是-
执行地图端聚合,因此如果每个分组键有多个值,则数据将在洗牌之前合并collect\u list
- 否-因为空列表与缺少的数据不同。如果这不是期望的行为,那么应该首先过滤数据
但请记住,如果ds.filter(size($"location") > 0).groupBy("deptId").agg(...)
只有空数组,则会产生不同的结果deptId