Optimization 神经网络的高变异性损失
每个历元之间的准确度和损失都有很高的可变性,高达10%。我的准确率一直在下降,当我开始增加辍学率时,我的损失也在下降。然而,我真的需要这个辍学者,你有什么想法可以让我平静下来吗?如果不知道你在做什么,很难说出任何具体的事情。但因为您提到您的数据集非常小:500个样本,所以我认为您10%的性能提升并不令人惊讶。还有一些想法:Optimization 神经网络的高变异性损失,optimization,machine-learning,tensorflow,neural-network,keras,Optimization,Machine Learning,Tensorflow,Neural Network,Keras,每个历元之间的准确度和损失都有很高的可变性,高达10%。我的准确率一直在下降,当我开始增加辍学率时,我的损失也在下降。然而,我真的需要这个辍学者,你有什么想法可以让我平静下来吗?如果不知道你在做什么,很难说出任何具体的事情。但因为您提到您的数据集非常小:500个样本,所以我认为您10%的性能提升并不令人惊讶。还有一些想法: 如果可以,一定要使用更大的数据集。如果无法收集更大的数据集,请尝试扩充现有的数据集 尝试一个较小的退出,看看它是如何进行的,尝试不同的正则化(退出不是唯一的选择) 您的数据
- 如果可以,一定要使用更大的数据集。如果无法收集更大的数据集,请尝试扩充现有的数据集
- 尝试一个较小的退出,看看它是如何进行的,尝试不同的正则化(退出不是唯一的选择)
- 您的数据很小,可以运行200多次迭代
- 查看您的模型在测试集上的执行情况,可能只是严重地过度拟合了数据
- 如果可以,一定要使用更大的数据集。如果无法收集更大的数据集,请尝试扩充现有的数据集
- 尝试一个较小的退出,看看它是如何进行的,尝试不同的正则化(退出不是唯一的选择)
- 您的数据很小,可以运行200多次迭代
- 查看您的模型在测试集上的执行情况,可能只是严重地过度拟合了数据
- 不知道自己在做什么,很难说出具体的话。但因为您提到您的数据集非常小:500个样本,所以我认为您10%的性能提升并不令人惊讶。还有一些想法: