Numpy 如何处理keras中非常缓慢的训练?

Numpy 如何处理keras中非常缓慢的训练?,numpy,memory,keras,wavelet,pyhook,Numpy,Memory,Keras,Wavelet,Pyhook,故事 我有一个ECG信号记录的数据集(162名患者,65635个样本),我得到了这些记录的连续小波变换,因此结果是成形的(162名患者,65635个样本,80个系数),非常大,可以放入内存(40 MB)因此,我将这些实例保存为.npz矩阵,并在训练中使用keras生成器,我使用LSTM、卷积layer和CPU,训练非常缓慢 问题 处理这个问题的最佳策略是什么 如何减小cwt产生的系数矩阵的大小 与其将整个数据集加载到内存中,不如使用诸如?另外,请注意,使用CPU训练深度神经网络需要大量时间。如果

故事 我有一个ECG信号记录的数据集(162名患者,65635个样本),我得到了这些记录的连续小波变换,因此结果是成形的(162名患者,65635个样本,80个系数),非常大,可以放入内存(40 MB)因此,我将这些实例保存为.npz矩阵,并在训练中使用keras生成器,我使用LSTM、卷积layer和CPU,训练非常缓慢

问题

  • 处理这个问题的最佳策略是什么

  • 如何减小cwt产生的系数矩阵的大小


  • 与其将整个数据集加载到内存中,不如使用诸如?另外,请注意,使用CPU训练深度神经网络需要大量时间。如果你想优先考虑速度,可以使用云平台,比如AWS,它利用GPU的计算能力。我使用一个定制的keras生成器将数据作为补丁加载,结果证明长序列(65635 LSTM)是导致速度减慢的主要原因