Machine learning 卷积网络中的过度拟合可以吗?

Machine learning 卷积网络中的过度拟合可以吗?,machine-learning,computer-vision,conv-neural-network,Machine Learning,Computer Vision,Conv Neural Network,我正在使用resnet50对Kaggle数据集中的花朵图片进行分类。我想澄清一些关于我的结果的事情 epoch train_loss valid_loss error_rate time 0 0.205352 0.226580 0.077546 02:01 1 0.148942 0.205224 0.074074 02:01 这是训练的最后两个阶段。正如您所看到的,第二个历元显示了一些过度拟合,因为train_损失比验证

我正在使用resnet50对Kaggle数据集中的花朵图片进行分类。我想澄清一些关于我的结果的事情

 epoch  train_loss  valid_loss  error_rate  time

   0    0.205352    0.226580    0.077546    02:01

   1    0.148942    0.205224    0.074074    02:01
这是训练的最后两个阶段。正如您所看到的,第二个历元显示了一些过度拟合,因为train_损失比验证损失低很多。尽管存在过度拟合,但错误率和验证损失都有所降低。我想知道,尽管过度拟合,模型是否确实有所改进。对于看不见的数据,使用历元0或历元1的模型更好吗?谢谢大家!

可悲的是,“过度拟合”如今是一个经常被滥用的术语,用来指几乎所有与次优性能相关的东西;然而,实际上,过度拟合意味着一些非常具体的东西:它的信号是当你的验证损失开始增加,而你的培训损失继续减少时,即:

(图片改编自上的维基百科条目)

很明显,在你的情况下,没有任何类似的事情发生;培训和验证损失之间的“差额”完全是另一回事(称为“差额”),并不意味着过度拟合


因此,原则上,您完全没有理由选择验证损失较高(即您的第一个)的模型,而不是验证损失较低(第二个)的模型。

谢谢您的回答。我同意过度装修的定义有时含糊不清。