Tensorflow Keras model.fit在Google Colab Pro中内存不足
我正在用下面的数据集尝试一个简单的顺序模型。 使用具有35 GB RAM+225 GB磁盘空间的Colab PROTensorflow Keras model.fit在Google Colab Pro中内存不足,tensorflow,machine-learning,keras,google-colaboratory,tensorflow2.0,Tensorflow,Machine Learning,Keras,Google Colaboratory,Tensorflow2.0,我正在用下面的数据集尝试一个简单的顺序模型。 使用具有35 GB RAM+225 GB磁盘空间的Colab PRO 总刑期-59000 总字数-160000 填充序号长度-38 因此,列车x(59000,37),列车y(59000) 我正在使用FastText来嵌入层。FastText模型使用 (行)vocab_尺寸113000 (列/尺寸)嵌入尺寸8815 下面是model.summary()的样子 编译模型大约需要15分钟,但是.fit在没有足够内存的情况下崩溃 我已将批处理大小降低到4(
非常感谢您的建议。如果我所看到的是正确的,那么您的模型实在太大了! 它有将近15亿个参数。那太过分了。
减少批大小根本没有帮助。这不是一个简单的顺序模型,您的模型有149800万个参数,非常大,相比之下,ResNet有200万个参数,VGG大约有1.5亿个。训练这么大的模型需要一些工程上的挑战,所以你可能应该重新考虑这是否是你想要做的。重量需要~6 Gb。我认为您有机会使用简单的优化器和1的批量大小进行培训。但训练如此庞大的模型可能需要数年时间,除非你有大量的TPUs@Dr.Snoopy-谢谢你的反馈。有什么建议需要重新考虑吗?