Python 为什么我会随机得到超高的困惑?

Python 为什么我会随机得到超高的困惑?,python,pytorch,google-colaboratory,recurrent-neural-network,perplexity,Python,Pytorch,Google Colaboratory,Recurrent Neural Network,Perplexity,几天前,我完成了一个单词预测程序的编写,该程序在给定的数据集上测试LSTM和GRU模型。我测试了4个模型-2个LSTM模型和2个GRU模型。我在Google Colab上写了这个程序 我使用两个验证集来了解它如何影响他们的困惑。我对我得到的结果非常满意。现在,几天后,当我回来运行它时,我看到我在第一个历元中随机得到了非常巨大的困惑,至少有一个验证集,当我这样做时,所有4个模型的困惑都会持续。但是,当我在第一个历元之后停止程序并立即再次运行它时,它有时会修复第一个历元(以及整个程序)上的困惑问题。

几天前,我完成了一个单词预测程序的编写,该程序在给定的数据集上测试LSTM和GRU模型。我测试了4个模型-2个LSTM模型和2个GRU模型。我在Google Colab上写了这个程序

我使用两个验证集来了解它如何影响他们的困惑。我对我得到的结果非常满意。现在,几天后,当我回来运行它时,我看到我在第一个历元中随机得到了非常巨大的困惑,至少有一个验证集,当我这样做时,所有4个模型的困惑都会持续。但是,当我在第一个历元之后停止程序并立即再次运行它时,它有时会修复第一个历元(以及整个程序)上的困惑问题。这可以一次又一次地进行,直到所有3个数据集都给出正常结果

是否有任何谷歌colab问题导致了运行中的这些随机失败? 我这样问是为了防止无缘无故地挖掘我的代码,因为有时候它工作得非常好

谢谢

编辑:在多次测试之后,我注意到在重新启动运行时后的第一个历元总是发生以下情况:

  • 训练困惑是正常的(一如既往),但两个验证集都不是。我停下来又跑了一遍
  • 训练困惑是正常的(一如既往),验证集1是正常的,验证集2不是。我停下来又跑了一遍
  • 训练困惑是正常的(一如既往),两个验证集都是正常的。我停下来又跑了一遍
  • 与3相同