在python中使用Dataframe的GroupBy计数

在python中使用Dataframe的GroupBy计数,python,pandas,scala,apache-spark,anaconda,Python,Pandas,Scala,Apache Spark,Anaconda,我知道如何使用Scala Spark——我想知道为什么在Anaconda-Python中会如此痛苦 我想在Python中执行相同的操作 val dfs = df.groupBy($"col1").count.orderBy(desc("count")) 这是一个错误 dfs = df[['col1']].groupby(['col1]).count.sort(['count']) 您可以使用.size()和.sort\u values() 试试这个: 将熊猫作为pd导入 将numpy作为np

我知道如何使用Scala Spark——我想知道为什么在Anaconda-Python中会如此痛苦

我想在Python中执行相同的操作

val dfs = df.groupBy($"col1").count.orderBy(desc("count"))
这是一个错误

dfs = df[['col1']].groupby(['col1]).count.sort(['count'])
您可以使用
.size()
.sort\u values()

试试这个:

将熊猫作为pd导入
将numpy作为np导入
df=pd.DataFrame.from_dict({“col1”:np.random.randint(11,20,size=100,dtype=int)})
dfs=df.groupby('col1').size().sort_values()
打印(dfs)
输出:

col1
16     7
11     8
15     8
12     9
14    11
19    12
13    13
17    16
18    16
dtype: int64