Machine learning 神经网络:没有辍学者给出最好的考试分数。那么糟糕吗?

Machine learning 神经网络:没有辍学者给出最好的考试分数。那么糟糕吗?,machine-learning,neural-network,dropout,regularized,Machine Learning,Neural Network,Dropout,Regularized,我从某人手中接过一些代码,我的任务是在pytorch中复制相同的模型和性能。我也得到了该模型的最佳超参数。在玩了一段时间之后,我发现如果我将退学率设置为零,那么我的测试性能是最好的。它停止得越早,辍学率越小。事实上,它的性能比以前的型号好一点。而之前的模式有显著的辍学率。 数据大小约为3300万行。神经网络有4-5层。总输入嵌入量约为1000。 虽然我很高兴看到这场演出,但我想知道这是否是某种危险信号。因为没有辍学,我真的没有任何其他正规化。它在这方面表现良好,这可能意味着可能存在一些数据泄漏或

我从某人手中接过一些代码,我的任务是在pytorch中复制相同的模型和性能。我也得到了该模型的最佳超参数。在玩了一段时间之后,我发现如果我将退学率设置为零,那么我的测试性能是最好的。它停止得越早,辍学率越小。事实上,它的性能比以前的型号好一点。而之前的模式有显著的辍学率。
数据大小约为3300万行。神经网络有4-5层。总输入嵌入量约为1000。 虽然我很高兴看到这场演出,但我想知道这是否是某种危险信号。因为没有辍学,我真的没有任何其他正规化。它在这方面表现良好,这可能意味着可能存在一些数据泄漏或其他问题?
在这种背景下寻找一些关于辍学的智慧。

有时候,这些事情会发生。有一次,我的神经网络不工作了,所以有人建议我在其中添加批量标准化层,然后它工作得很好。但在另一个问题中,批量标准化使我的神经网络变得更糟。这都是因为反向传播。有时,添加某一层会使神经网络陷入局部极小值,有时则有助于摆脱它。我不太清楚这是为什么,但我认为这是因为反向传播

可能是数据泄露还是什么

答案是否定的。这只是因为反向传播


注意-如果你觉得我在这篇文章的任何地方都错了,请发表评论。

有时候,这些事情会发生。有一次,我的神经网络不工作了,所以有人建议我在其中添加批量标准化层,然后它工作得很好。但在另一个问题中,批量标准化使我的神经网络变得更糟。这都是因为反向传播。有时,添加某一层会使神经网络陷入局部极小值,有时则有助于摆脱它。我不太清楚这是为什么,但我认为这是因为反向传播

可能是数据泄露还是什么

答案是否定的。这只是因为反向传播


注意-如果你觉得我在这篇文章的任何地方都错了,请发表评论。

我投票结束这个问题,因为我不是关于ML方法中定义的编程,而是关于ML方法。我投票结束这个问题,因为我不是关于ML方法中定义的编程,而是关于ML方法。