Deep learning 深入学习,损失不会减少

Deep learning 深入学习,损失不会减少,deep-learning,cross-validation,objective-function,Deep Learning,Cross Validation,Objective Function,我试着使用一个有20节课的训练集对一个预先训练好的模型进行微调。重要的是,尽管我有20节课,但有一节课包含了1/3的训练图像。这就是我的损失没有减少,测试准确率几乎达到30%的原因吗 感谢您提供的任何建议是的,您的网络很可能与不平衡的标签过度匹配。一种解决方案是,您可以对其他标签执行数据扩充,以平衡它们。例如,如果您有图像数据:您可以进行随机裁剪、水平/垂直翻转以及各种技术 编辑: 检查是否过度拟合不平衡标签的一种方法是计算标签的直方图。如果它高度偏向不平衡的类,你应该尝试上面的数据扩充方法,重

我试着使用一个有20节课的训练集对一个预先训练好的模型进行微调。重要的是,尽管我有20节课,但有一节课包含了1/3的训练图像。这就是我的损失没有减少,测试准确率几乎达到30%的原因吗


感谢您提供的任何建议

是的,您的网络很可能与不平衡的标签过度匹配。一种解决方案是,您可以对其他标签执行数据扩充,以平衡它们。例如,如果您有图像数据:您可以进行随机裁剪、水平/垂直翻转以及各种技术

编辑:


检查是否过度拟合不平衡标签的一种方法是计算标签的直方图。如果它高度偏向不平衡的类,你应该尝试上面的数据扩充方法,重新训练你的网络,看看这是否有帮助。

我也有类似的问题。我通过增加神经网络权重初始值的方差来解决这个问题。这可以作为神经网络的预处理,以防止权重在后支撑过程中消失

我偶然看到Jenny Orr教授的课程,发现它提供了很多信息。(刚刚意识到Jenny在早年与Yann LeCun和Leon bottou合著了许多关于神经网络训练的论文)


希望有帮助

我的所有网络都不是过盈而是过盈。测试准确率为30%,无论我做什么改变,准确率都是稳定的。