Python Keras LSTM训练损失在一个时期内瞬间增加
我正在训练一个Python Keras LSTM训练损失在一个时期内瞬间增加,python,tensorflow,machine-learning,keras,lstm,Python,Tensorflow,Machine Learning,Keras,Lstm,我正在训练一个LSTM来预测价格图。为了做到这一点,我将数据整理成3D,有一个特定的时间窗口,比如10天来预测第二天 我不是在进行训练和测试之前对数据进行洗牌。因此,最新的数据被用作测试。对于无状态的LSTM,这是个好主意吗 第二,在一个时期内,训练首先是减少的,但在这个时期的中途,训练突然增加了一个数量级?发生这种情况的可能原因是什么?这是正常的行为。也就是说,一个时代的损失应该不断减少,这是我的误解吗 我使用贝叶斯优化找到正确的超参数,我使用默认学习率的adam优化器。以及在0和1之间规范化
LSTM
来预测价格图。为了做到这一点,我将数据整理成3D,有一个特定的时间窗口,比如10天来预测第二天
我不是在进行训练和测试之前对数据进行洗牌。因此,最新的数据被用作测试。对于无状态的LSTM
,这是个好主意吗
第二,在一个时期内,训练首先是减少的,但在这个时期的中途,训练突然增加了一个数量级?发生这种情况的可能原因是什么?这是正常的行为。也就是说,一个时代的损失应该不断减少,这是我的误解吗
我使用贝叶斯优化找到正确的超参数,我使用默认学习率的adam
优化器。以及在0和1之间规范化数据