带Groupby的Python条件和
使用样本数据:带Groupby的Python条件和,python,pandas,pandas-groupby,Python,Pandas,Pandas Groupby,使用样本数据: df = pd.DataFrame({'key1' : ['a','a','b','b','a'], 'key2' : ['one', 'two', 'one', 'two', 'one'], 'data1' : np.random.randn(5), 'data2' : np. random.randn(5)}) df 我试图找出如何按key1对数据进行分组,并仅对key2等于“1”的d
df = pd.DataFrame({'key1' : ['a','a','b','b','a'],
'key2' : ['one', 'two', 'one', 'two', 'one'],
'data1' : np.random.randn(5),
'data2' : np. random.randn(5)})
df
我试图找出如何按key1对数据进行分组,并仅对key2等于“1”的data1值求和
这是我试过的
def f(d,a,b):
d.ix[d[a] == b, 'data1'].sum()
df.groupby(['key1']).apply(f, a = 'key2', b = 'one').reset_index()
但这给了我一个“无”值的数据帧
index key1 0
0 a None
1 b None
有什么想法吗?我正在寻找与以下SQL等效的Pandas:
SELECT Key1, SUM(CASE WHEN Key2 = 'one' then data1 else 0 end)
FROM df
GROUP BY key1
仅供参考-我已经看到了,但无法将这里提供的答案转换为总和而不是计数
提前感谢第一组按键1列:
In [11]: g = df.groupby('key1')
然后对于每个组,取key2等于'1'的子数据帧,并对data1列求和:
In [12]: g.apply(lambda x: x[x['key2'] == 'one']['data1'].sum())
Out[12]:
key1
a 0.093391
b 1.468194
dtype: float64
为了解释发生了什么,让我们看看“a”组:
In [21]: a = g.get_group('a')
In [22]: a
Out[22]:
data1 data2 key1 key2
0 0.361601 0.375297 a one
1 0.069889 0.809772 a two
4 -0.268210 1.250340 a one
In [23]: a[a['key2'] == 'one']
Out[23]:
data1 data2 key1 key2
0 0.361601 0.375297 a one
4 -0.268210 1.250340 a one
In [24]: a[a['key2'] == 'one']['data1']
Out[24]:
0 0.361601
4 -0.268210
Name: data1, dtype: float64
In [25]: a[a['key2'] == 'one']['data1'].sum()
Out[25]: 0.093391000000000002
通过将数据帧限制为仅使用key2等于1的数据帧,可以更容易/更清楚地做到这一点:
In [31]: df1 = df[df['key2'] == 'one']
In [32]: df1
Out[32]:
data1 data2 key1 key2
0 0.361601 0.375297 a one
2 1.468194 0.272929 b one
4 -0.268210 1.250340 a one
In [33]: df1.groupby('key1')['data1'].sum()
Out[33]:
key1
a 0.093391
b 1.468194
Name: data1, dtype: float64
我认为今天有了熊猫0.23,你可以做到:
import numpy as np
df.assign(result = np.where(df['key2']=='one',df.data1,0))\
.groupby('key1').agg({'result':sum})
这样做的好处是,您可以将其应用于同一数据帧的多个列
df.assign(
result1 = np.where(df['key2']=='one',df.data1,0),
result2 = np.where(df['key2']=='two',df.data1,0)
).groupby('key1').agg({'result1':sum, 'result2':sum})
您可以在执行
groupby
操作之前过滤数据帧。如果由于所有值都超出范围而减少了系列索引,则可以将reindex
与fillna
一起使用:
res = df.loc[df['key2'].eq('one')]\
.groupby('key1')['data1'].sum()\
.reindex(df['key1'].unique()).fillna(0)
print(res)
key1
a 3.631610
b 0.978738
c 0.000000
Name: data1, dtype: float64
安装程序
为了演示,我添加了一行
np.random.seed(0)
df = pd.DataFrame({'key1': ['a','a','b','b','a','c'],
'key2': ['one', 'two', 'one', 'two', 'one', 'two'],
'data1': np.random.randn(6),
'data2': np.random.randn(6)})
令人惊叹的!我正在我的实际数据上尝试这一点(可能需要一段时间),但我认为这正是我所寻找的。非常感谢您,我们只搜索了文档和一个快速的谷歌搜索…无法通过groupby筛选器准确找到您所指的内容…您能为我指出正确的方向吗?@AllenQ这是dev中的一个新方法(很快将在0.11.1中发布).有没有可能避免在这些场景中使用apply?老实说,这是迄今为止最好的回答之一。分解它并展示它的工作原理让我从groupby新手变成了专业人士。非常感谢。
np.random.seed(0)
df = pd.DataFrame({'key1': ['a','a','b','b','a','c'],
'key2': ['one', 'two', 'one', 'two', 'one', 'two'],
'data1': np.random.randn(6),
'data2': np.random.randn(6)})