在Spark Scala中,按分组后,计算df中用户的元素数
我有这个df:在Spark Scala中,按分组后,计算df中用户的元素数,scala,dataframe,apache-spark,group-by,aggregate,Scala,Dataframe,Apache Spark,Group By,Aggregate,我有这个df: |User |country| | Ron | italy| | Tom | japan| | Lin | spain| | Tom | china| | Tom | china| | Lin | japan| | Tom | china| | Lin | japan| 我想计算每个用户的国家总数。 例如,对于上面的df,我将得到: [Ron -> [italy ->1],
|User |country|
| Ron | italy|
| Tom | japan|
| Lin | spain|
| Tom | china|
| Tom | china|
| Lin | japan|
| Tom | china|
| Lin | japan|
我想计算每个用户的国家总数。
例如,对于上面的df,我将得到:
[Ron -> [italy ->1], Tom -> [Japan -> 1, china -> 3], Lin -> [Spain -> 1, Japan ->2]]
我从
val groupedbyDf = df.groupBy("User")
但是我不知道如何继续。。agg()?您需要在分组后使用相关的映射函数创建映射:
val df2 = df.groupBy("User", "country")
.count()
.groupBy("User")
.agg(map(
col("User"),
map_from_entries(collect_list(struct(col("country"), col("count"))))
).as("result")
)
.select("result")
df2.show(false)
+---------------------------------+
|result |
+---------------------------------+
|[Tom -> [china -> 3, japan -> 1]]|
|[Lin -> [spain -> 1, japan -> 2]]|
|[Ron -> [italy -> 1]] |
+---------------------------------+
如果要将所有数据都放在一行中,可以再进行一次聚合:
val df2 = df.groupBy("User", "country")
.count()
.groupBy("user")
.agg(map_from_entries(collect_list(struct(col("country"), col("count")))).as("result"))
.agg(map_from_entries(collect_list(struct(col("user"), col("result")))).as("result_all"))
df2.show(false)
+---------------------------------------------------------------------------------------+
|result_all |
+---------------------------------------------------------------------------------------+
|[Tom -> [china -> 3, japan -> 1], Lin -> [spain -> 1, japan -> 2], Ron -> [italy -> 1]]|
+---------------------------------------------------------------------------------------+