Keras继续在Google Colab上训练中断的课程
我正在使用免费版本的谷歌Colab&由于1的原因,我无法进行一些实验。内存限制:我的数据集太大,无法放入内存或2。训练时间超过12小时(在此之后,我会自动断开连接)。 因此,我想分割大数据集,在上半年进行训练,保存模型,然后在下半年继续训练。我在一个模型上尝试了这种方法,我可以一次对所有的模型进行训练,看看最终的结果是否相同。但事实并非如此——分两批训练的模型表现更差 我的方法:Keras继续在Google Colab上训练中断的课程,keras,resuming-training,Keras,Resuming Training,我正在使用免费版本的谷歌Colab&由于1的原因,我无法进行一些实验。内存限制:我的数据集太大,无法放入内存或2。训练时间超过12小时(在此之后,我会自动断开连接)。 因此,我想分割大数据集,在上半年进行训练,保存模型,然后在下半年继续训练。我在一个模型上尝试了这种方法,我可以一次对所有的模型进行训练,看看最终的结果是否相同。但事实并非如此——分两批训练的模型表现更差 我的方法: 普通列车:有效分割: X_序列,X_有效,y_序列,y_有效=序列测试分割(X,y,测试大小=0.1,随机状态=42
- 此时,model.evaluate的结果为:损失:0.3074-准确度:0.8449-精密度:0.9083-召回率:0.4602,F1=0.6108456
- 此时model.evaluate的结果为:损失:0.2653-准确度:0.8542-精密度:0.8912-召回率:0.5331,F1=0.66711