Machine learning 验证/培训精度和过拟合

Machine learning 验证/培训精度和过拟合,machine-learning,cross-validation,training-data,Machine Learning,Cross Validation,Training Data,如果我们将数据随机分为训练数据和验证数据,并假设训练数据和验证数据具有相似的“分布”,即它们都是整个数据集的良好表示 在这种情况下,如果没有过度拟合,验证精度是否应始终与训练精度大致相同?或者,在某些情况下,培训和验证精度之间是否可能存在差距,这不是由于验证数据的过度拟合或错误表示造成的 如果存在这样的差距,如何判断训练和验证准确性之间的差距是由过度拟合或其他原因造成的?“除了”之外还有什么问题通常很难回答,但我认为训练数据的更高准确性总是由于过度拟合或偶然性 在历元结束时,验证精度通常较高,

如果我们将数据随机分为训练数据和验证数据,并假设训练数据和验证数据具有相似的“分布”,即它们都是整个数据集的良好表示

在这种情况下,如果没有过度拟合,验证精度是否应始终与训练精度大致相同?或者,在某些情况下,培训和验证精度之间是否可能存在差距,这不是由于验证数据的过度拟合或错误表示造成的

如果存在这样的差距,如何判断训练和验证准确性之间的差距是由过度拟合或其他原因造成的?

“除了”之外还有什么问题通常很难回答,但我认为训练数据的更高准确性总是由于过度拟合或偶然性

  • 在历元结束时,验证精度通常较高,因为训练精度通常在历元期间作为移动平均值计算
  • 当使用大量图像增强时,您有时也会看到验证数据的性能更好,因为它不像训练数据那样被修改

这两个并不重要,如果我理解正确的话,你要求的是一种训练准确度更高的情况,而不是过度拟合或有机会扮演角色。我认为不存在这样的理由。

你能提供更多关于“内在”含义的上下文吗?您只是在培训acc>验证acc时询问案例,还是反过来问?@pietz所说的“内在”,我指的是不是由于验证数据的过度拟合或错误表示造成的差距。为了避免混淆,我删除了“内在”一词。