在python中使用Dataframe的GroupBy计数
我知道如何使用Scala Spark——我想知道为什么在Anaconda-Python中会如此痛苦 我想在Python中执行相同的操作在python中使用Dataframe的GroupBy计数,python,pandas,scala,apache-spark,anaconda,Python,Pandas,Scala,Apache Spark,Anaconda,我知道如何使用Scala Spark——我想知道为什么在Anaconda-Python中会如此痛苦 我想在Python中执行相同的操作 val dfs = df.groupBy($"col1").count.orderBy(desc("count")) 这是一个错误 dfs = df[['col1']].groupby(['col1]).count.sort(['count']) 您可以使用.size()和.sort\u values() 试试这个: 将熊猫作为pd导入 将numpy作为np
val dfs = df.groupBy($"col1").count.orderBy(desc("count"))
这是一个错误
dfs = df[['col1']].groupby(['col1]).count.sort(['count'])
您可以使用.size()
和.sort\u values()
试试这个:
将熊猫作为pd导入
将numpy作为np导入
df=pd.DataFrame.from_dict({“col1”:np.random.randint(11,20,size=100,dtype=int)})
dfs=df.groupby('col1').size().sort_values()
打印(dfs)
输出:
col1
16 7
11 8
15 8
12 9
14 11
19 12
13 13
17 16
18 16
dtype: int64