Machine learning 截断LSTM网络中的旧数据点?

Machine learning 截断LSTM网络中的旧数据点?,machine-learning,keras,lstm,Machine Learning,Keras,Lstm,为了训练LSTM网络,我将一个时间序列转化为一个有监督的学习问题,并且我继续向我的训练集中添加新的数据点。然而,随着时间序列越来越长,训练我的网络在计算上变得越来越昂贵。是否有一种技术可以截断可能对预测未来没有重大影响的旧数据点?有文献支持这样的概念吗?您可以简单地使用一段数据:slicedX=X[:,-50:],如果您有长度为Y的数据:slicedY=Y[:,-50: 在示例中,我使用了包含最后50个时间步的长度 正确的时间步数是多少? 答案在于你自己的数据。只有通过实验才能知道网络需要多少步

为了训练LSTM网络,我将一个时间序列转化为一个有监督的学习问题,并且我继续向我的训练集中添加新的数据点。然而,随着时间序列越来越长,训练我的网络在计算上变得越来越昂贵。是否有一种技术可以截断可能对预测未来没有重大影响的旧数据点?有文献支持这样的概念吗?

您可以简单地使用一段数据:
slicedX=X[:,-50:]
,如果您有长度为Y的数据:
slicedY=Y[:,-50:

在示例中,我使用了包含最后50个时间步的长度

正确的时间步数是多少? 答案在于你自己的数据。只有通过实验才能知道网络需要多少步才能达到令人满意的效果