Machine learning 如何同时使用交叉验证和提前停止?

Machine learning 如何同时使用交叉验证和提前停止?,machine-learning,deep-learning,cross-validation,Machine Learning,Deep Learning,Cross Validation,我必须使用K-fold交叉验证来训练我的模型,但同时我想使用提前停止来防止过度拟合。怎样才能做到呢?由于提前停止将在每个折叠中返回不同的模型,折叠精度的平均值是否有意义?即使不使用提前停止,每次使用交叉验证时,每个折叠中都有不同的模型:模型具有不同的参数和不同的结果,但这就是CV的要点。您可以使用ES,无需特别注意。不推荐使用;见自己的答案

我必须使用K-fold交叉验证来训练我的模型,但同时我想使用提前停止来防止过度拟合。怎样才能做到呢?由于提前停止将在每个折叠中返回不同的模型,折叠精度的平均值是否有意义?

即使不使用提前停止,每次使用交叉验证时,每个折叠中都有不同的模型:模型具有不同的参数和不同的结果,但这就是CV的要点。您可以使用ES,无需特别注意。

不推荐使用;见自己的答案