Python 使用pandas计算datetime行平均值的最快方法

Python 使用pandas计算datetime行平均值的最快方法,python,pandas,data-analysis,Python,Pandas,Data Analysis,我有122864行数据。我正在HDF5文件中存储数据。使用熊猫进行数据处理。对于记录中的每个唯一id,都有一个相关的时间戳,指示用户打开应用程序的时间。我想得到两次点击应用程序之间的平均持续时间 1283 2015-04-01 08:07:44.131768 1284 2015-04-01 08:08:02.752611 1285 2015-04-01 08:08:02.793380 1286 2015-04-01 08:07:53.910469 1287 2015

我有122864行数据。我正在HDF5文件中存储数据。使用熊猫进行数据处理。对于记录中的每个唯一id,都有一个相关的时间戳,指示用户打开应用程序的时间。我想得到两次点击应用程序之间的平均持续时间

1283    2015-04-01 08:07:44.131768
1284    2015-04-01 08:08:02.752611
1285    2015-04-01 08:08:02.793380
1286    2015-04-01 08:07:53.910469
1287    2015-04-01 08:08:03.305893
1288    2015-04-01 08:07:44.843050
1289    2015-04-01 08:07:54.767203
1290    2015-04-01 08:08:03.965367
1291    2015-04-01 08:07:45.924854
1292    2015-04-01 08:07:55.408593
1293    2015-04-01 08:07:46.365128

class User(object):

    ''' 
    Properties and function related to each object.

    attributes:

        datetime: a list of hit timestamp for each user object
        deviceid: unique deviceid
    '''

    def __init__(self, User, device_id):
        self.datetime = pd.to_datetime(list(User['datetime']))
        self.deviceid = device_id
        self.avrgtime = 0.0
        avgtime.setdefault(self.deviceid, 1)

    def avg_duration(self):

        '''
        average duration b/w hits for each user.
        '''

        for i,time in enumerate(self.datetime[:-1]):
            self.avrgtime += abs(self.datetime[i+1] - time).total_seconds()
        avgtime[self.deviceid] = self.avrgtime/len(self.datetime)
        pp.pprint(avgtime)
            #avgtime[] = datetime.strptime(time, '%Y-%m-%d %H:%M:%S.%f')

        pass


def eachdevice(gstore):
    count = 0
    for did in list(gstore['data'].drop_duplicates('device_id')['device_id']):

     auser = gstore.select('data', where="device_id == did")
     gamer = User(auser, did) 
     gamer.avg_duration()
     count+=1
     print count



#main workshore
if __name__ == '__main__':

    try:
        path = os.path.abspath(sys.argv[1])
        with pd.HDFStore('Gamer.h5') as gstore:
            eachdevice(gstore)            

    except IndexError:
        print('\nPass path of the HDF5 file to be analyized...EXITING\n') 
到目前为止,我所做的是遍历每个唯一的\u id,并使用pandas dataframe选择查询每个唯一id的日期时间。这将返回datetime对象dataframe。我将其转换为列表,然后循环计算两个时间戳之间的平均差。 这种方法需要很多时间。在使用熊猫时有什么方法可以做到这一点吗

请帮忙

编辑:在注释掉所有计算部分后,我运行代码。我认为这个auser=gstore.select('data',where=“device\u id==did”)占用了所有的时间。如何改进?有没有其他更好的方法? %timeit结果:1个循环,最好的3个:每循环13.3秒,持续1000次迭代

编辑: 样本数据:

                           device_id                    datetime
0   c4be7e55d98914647c51329edc2ab734  2015-03-30 22:00:05.922317
1   05fed9f8e07c3cac457723286d36f621  2015-03-30 22:00:07.895672
2   783faeed9fe35a3f45b521b3a6667a2d  2015-03-30 22:00:05.529631
3   c2022ad838cec35bdb12fc3a6e2cf452  2015-03-30 21:59:59.043905
4   a8a04268ee0c22b26af59e053390cf6f  2015-03-30 22:00:14.248542
5   4e5ed16b44b9cd38c408859d1d241e2d  2015-03-30 22:00:02.391719
6   c0bfd3f9046855ffaaec4d99c367fd8c  2015-03-30 22:00:18.649193
7   95f1182c6e4d601ba0b20f5204168ecb  2015-03-30 22:00:13.629728
8   a85caa7e0a4a7d57e6330c083daff326  2015-03-30 22:00:08.340469
9   46cdbee963814cdb4e6a0ac0049b8fc6  2015-03-30 22:00:23.152820
10  3c8bf70679cd9c6f18aa52d06e0e181d  2015-03-30 22:00:17.619251
11  52bc4e3d9dc373d89ec31effe10e6f30  2015-03-30 22:00:11.591954
12  3477eb25e26b6bff0bfc6c3ee59a5f40  2015-03-30 22:00:25.745083
13  e7bf8ae864f2148831628a6f2e8e406e  2015-03-30 22:00:20.911568
14  a15af8faffd655a3e80f85840bbf3c2a  2015-03-30 22:00:19.017887
15  9d9f71f080c0cf478ec4117e78ff89ee  2015-03-30 22:00:28.435585
16  1633d88738316e3602890499b1f778b1  2015-03-30 22:00:24.108234
17  3362daf99f11541acbf45e70fdaf5f49  2015-03-30 22:00:24.512366
18  96c3c005eaaaa8d6af3f2443ca8f73df  2015-03-30 22:00:29.713550
19  002642b9ed495f84318fcb42557f53e1  2015-03-30 22:00:37.936647

获取唯一用户ID的时间戳之间的平均差异字典

device_ids = df.device_id.unique()
device_tdelta = {device: df.loc[df.device_id == device, 'datetime'].diff().mean() 
                         for device in df.device_id.unique()}
然后需要将这些时间增量转换为秒:

from pandas.tslib import NaT

device_seconds = {device: ts.total_seconds() 
                          if not isinstance(ts, pd.tslib.NaTType) 
                          else NaT 
                          for device, ts in device_tdelta.iteritems()}
如果datetime列是字符串形式,则需要将第一个列转换为时间戳

df.datetime = [pd.Timestamp(ts) for ts in df.datetime]

让我们创建一个具有150000行的虚拟数据集,与您的数据集类似

>>> import pandas as pd
>>> data = pd.DataFrame({
...     'device_id': pd.np.random.randint(0, 100, 150000),
...     'datetime': pd.Series(pd.np.random.randint(1429449000, 1429649000, 150000) * 1E9).astype('datetime64[ns]')
... }).sort('datetime')
>>> data.head()
                  datetime  device_id
113719 2015-04-19 13:10:00         34
120323 2015-04-19 13:10:01         22
91342  2015-04-19 13:10:04          9
61170  2015-04-19 13:10:08         27
103748 2015-04-19 13:10:11         65
您可以使用
.groupby
预计算组。这使您可以轻松识别给定
设备id
的所有
日期时间

>>> groups = data.groupby('device_id')
>>> data.ix[groups.groups.get(34)].head()   # Get the data for device_id = 34
                  datetime  device_id
113719 2015-04-19 13:10:00         34
105761 2015-04-19 13:11:30         34
85903  2015-04-19 13:18:40         34
36395  2015-04-19 13:19:55         34
108850 2015-04-19 13:20:06         34
从这里,可以很快识别出平均差异

>>> def mean_diff(device_id):
...     return data['datetime'][groups.groups.get(device_id)].diff().mean()
...
>>> mean_diff(34)
Timedelta('0 days 00:02:14.470746')
由于
.groupby
预先计算结果,因此每次连续查找都非常快。这一步在150000行上大约需要2毫秒

In [68]: %timeit mean_diff(34)
100 loops, best of 3: 2.03 ms per loop
您也可以在所有
设备\u id
上这样计算:

>>> time_diff = groups.apply(lambda df: df.datetime.diff().mean())
>>> time_diff.head()
device_id
0   00:02:12.871504
1   00:02:10.464099
2   00:02:09.550000
3   00:02:15.845003
4   00:02:14.642375
dtype: timedelta64[ns]
这也很快。对于这150000行,需要不到50ms的时间。当然,您的里程数可能会有所不同

In [79]: %timeit groups.apply(lambda df: df.datetime.diff().mean())
10 loops, best of 3: 46.6 ms per loop

“你能通过df=pd.read_hdf()读取整个数据帧吗?是的,我能读取整个数据帧。你能提供一些数据(例如df.head(20)。to_dict())?”Alexander补充到问题中。纬度和经度还有两列,但我只发布了这两列。在尝试此设备时,delta={device:df.loc[df.device\u id==device,'datetime'].diff().mean()用于df.device\u id.unique()中的设备。}我收到了此错误“类型错误:不支持的操作数类型-:'str'和'str'添加了如何将“datetime”字符串列转换为时间戳。堆栈溢出上有许多这样的技术。
groups=data.groupby('device_id')time\u diff=groups.apply(lambda data:pd.to_datetime(data.datetime).diff().mean())pp.pprint(time_diff)
一个循环中每个循环3:42.4秒的最佳时间:timeit mean\u diff('db120223146f426e19c910c7f11d0ad')1000个循环,每循环3:984µs的最佳速度确实比我之前所做的要快。但为什么在我的情况下需要42秒?(我正在做pd.to\u datetime(),因为在我的例子中它不是一个datetime对象)
pd.to\u datetime()
非常慢。我强烈建议您不要使用它,或者如果您确实必须使用它,请确保在加载数据时只提前运行一次。@S\u Anand谢谢。有没有我可以阅读的博客或教程来使用pandas进行数据分析。
data=gstore.data.sort('datetime')groups=data.groupby('device_id')time_diff=groups.apply(lambda data:data.datetime.diff().mean())pp.pprint(time_diff.dropna())
我不知道为什么,但即使改进了这段代码,我也花了35分钟才明白。您的示例很快,因为您使用整数作为键,而在我的示例中,它是一个32个字符的字符串,因此即使在使用哈希表之后,对于如此庞大的数据量,其复杂性也会显著增加。