带Groupby的Python条件和

带Groupby的Python条件和,python,pandas,pandas-groupby,Python,Pandas,Pandas Groupby,使用样本数据: df = pd.DataFrame({'key1' : ['a','a','b','b','a'], 'key2' : ['one', 'two', 'one', 'two', 'one'], 'data1' : np.random.randn(5), 'data2' : np. random.randn(5)}) df 我试图找出如何按key1对数据进行分组,并仅对key2等于“1”的d

使用样本数据:

df = pd.DataFrame({'key1' : ['a','a','b','b','a'],
               'key2' : ['one', 'two', 'one', 'two', 'one'],
               'data1' : np.random.randn(5),
               'data2' : np. random.randn(5)})
df

我试图找出如何按key1对数据进行分组,并仅对key2等于“1”的data1值求和

这是我试过的

def f(d,a,b):
    d.ix[d[a] == b, 'data1'].sum()

df.groupby(['key1']).apply(f, a = 'key2', b = 'one').reset_index()
但这给了我一个“无”值的数据帧

index   key1    0
0       a       None
1       b       None
有什么想法吗?我正在寻找与以下SQL等效的Pandas:

SELECT Key1, SUM(CASE WHEN Key2 = 'one' then data1 else 0 end)
FROM df
GROUP BY key1
仅供参考-我已经看到了,但无法将这里提供的答案转换为总和而不是计数


提前感谢

第一组按键1列:

In [11]: g = df.groupby('key1')
然后对于每个组,取key2等于'1'的子数据帧,并对data1列求和:

In [12]: g.apply(lambda x: x[x['key2'] == 'one']['data1'].sum())
Out[12]:
key1
a       0.093391
b       1.468194
dtype: float64
为了解释发生了什么,让我们看看“a”组:

In [21]: a = g.get_group('a')

In [22]: a
Out[22]:
      data1     data2 key1 key2
0  0.361601  0.375297    a  one
1  0.069889  0.809772    a  two
4 -0.268210  1.250340    a  one

In [23]: a[a['key2'] == 'one']
Out[23]:
      data1     data2 key1 key2
0  0.361601  0.375297    a  one
4 -0.268210  1.250340    a  one

In [24]: a[a['key2'] == 'one']['data1']
Out[24]:
0    0.361601
4   -0.268210
Name: data1, dtype: float64

In [25]: a[a['key2'] == 'one']['data1'].sum()
Out[25]: 0.093391000000000002
通过将数据帧限制为仅使用key2等于1的数据帧,可以更容易/更清楚地做到这一点:

In [31]: df1 = df[df['key2'] == 'one']

In [32]: df1
Out[32]:
      data1     data2 key1 key2
0  0.361601  0.375297    a  one
2  1.468194  0.272929    b  one
4 -0.268210  1.250340    a  one

In [33]: df1.groupby('key1')['data1'].sum()
Out[33]:
key1
a       0.093391
b       1.468194
Name: data1, dtype: float64

我认为今天有了熊猫0.23,你可以做到:

import numpy as np

 df.assign(result = np.where(df['key2']=='one',df.data1,0))\
   .groupby('key1').agg({'result':sum})
这样做的好处是,您可以将其应用于同一数据帧的多个列

df.assign(
 result1 = np.where(df['key2']=='one',df.data1,0),
 result2 = np.where(df['key2']=='two',df.data1,0)
  ).groupby('key1').agg({'result1':sum, 'result2':sum})

您可以在执行
groupby
操作之前过滤数据帧。如果由于所有值都超出范围而减少了系列索引,则可以将
reindex
fillna
一起使用:

res = df.loc[df['key2'].eq('one')]\
        .groupby('key1')['data1'].sum()\
        .reindex(df['key1'].unique()).fillna(0)

print(res)

key1
a    3.631610
b    0.978738
c    0.000000
Name: data1, dtype: float64
安装程序 为了演示,我添加了一行

np.random.seed(0)

df = pd.DataFrame({'key1': ['a','a','b','b','a','c'],
                   'key2': ['one', 'two', 'one', 'two', 'one', 'two'],
                   'data1': np.random.randn(6),
                   'data2': np.random.randn(6)})

令人惊叹的!我正在我的实际数据上尝试这一点(可能需要一段时间),但我认为这正是我所寻找的。非常感谢您,我们只搜索了文档和一个快速的谷歌搜索…无法通过groupby筛选器准确找到您所指的内容…您能为我指出正确的方向吗?@AllenQ这是dev中的一个新方法(很快将在0.11.1中发布).有没有可能避免在这些场景中使用apply?老实说,这是迄今为止最好的回答之一。分解它并展示它的工作原理让我从groupby新手变成了专业人士。非常感谢。
np.random.seed(0)

df = pd.DataFrame({'key1': ['a','a','b','b','a','c'],
                   'key2': ['one', 'two', 'one', 'two', 'one', 'two'],
                   'data1': np.random.randn(6),
                   'data2': np.random.randn(6)})