Deep learning 验证准确度是否总是可能与培训准确度一样高?

Deep learning 验证准确度是否总是可能与培训准确度一样高?,deep-learning,keras,Deep Learning,Keras,我有一个非常小的数据集(40个训练示例、10个验证示例、120个类),通过Keras中非常简单的模型(仅限batchnorm、flatten和dense layers),我获得了非常高的精确度 我的训练准确率为94-95%,验证准确率为76-78%。我知道这太过分了,我试过一些方法。数据不是图像,因此我无法扩充数据。我也无法添加数据,因为它是特定类型。我使用了两个0.5级的退出层,架构非常简单,所以我认为我不能降低架构的复杂性。如果有人喜欢,我可以粘贴模型 我的问题是:是否曾经有过这样的情况:验

我有一个非常小的数据集(40个训练示例、10个验证示例、120个类),通过Keras中非常简单的模型(仅限batchnorm、flatten和dense layers),我获得了非常高的精确度

我的训练准确率为94-95%,验证准确率为76-78%。我知道这太过分了,我试过一些方法。数据不是图像,因此我无法扩充数据。我也无法添加数据,因为它是特定类型。我使用了两个0.5级的退出层,架构非常简单,所以我认为我不能降低架构的复杂性。如果有人喜欢,我可以粘贴模型

我的问题是:是否曾经有过这样的情况:验证精度不能像训练精度那样高?是否有基于数据集大小的限制?或者验证精度总是可能与训练精度相匹配,而网络只需要正确的参数


非常感谢你

那当然太合适了

过度拟合不仅仅是因为“太强大的模型”,而且还有很多原因,因为没有足够的数据,我确信这是你的情况


120节课40个例子?听起来好像有很多数据丢失了

投票结束后,你最好在stats.stackexchange或数据科学网站上提问。回答你的问题,是的,这是可能的,但可能性很小。例如,在测试集是测试集的精确副本的场景中。更一般地说,如果您确实发现了真正的数据生成过程,那么您应该得到“相同”的培训和验证准确性。谢谢您,Alex。我会把它贴在那里。谢谢你的回复。