Deep learning 大量的培训步骤导致迁移学习成绩不佳

Deep learning 大量的培训步骤导致迁移学习成绩不佳,deep-learning,Deep Learning,我有个问题。我已经使用转移学习对googlenet进行了再培训,以解决我的图像分类问题。我有80000张图片,属于14个类别。我将训练步数设置为200000。我认为Tensorflow提供的代码应该已经实现了退出,它基于数据集的随机洗牌和交叉验证方法进行训练,并且我没有看到训练和分类曲线中的任何过度拟合,我得到了很高的交叉验证精度和测试精度,但是当我将我的模型应用到新的数据集时,我得到了很差的分类结果。有人知道怎么回事吗?谢谢 -这两个数据集本质上相同吗?是否有任何可能的巨大差异,你只是忽略了您

我有个问题。我已经使用转移学习对googlenet进行了再培训,以解决我的图像分类问题。我有80000张图片,属于14个类别。我将训练步数设置为200000。我认为Tensorflow提供的代码应该已经实现了退出,它基于数据集的随机洗牌和交叉验证方法进行训练,并且我没有看到训练和分类曲线中的任何过度拟合,我得到了很高的交叉验证精度和测试精度,但是当我将我的模型应用到新的数据集时,我得到了很差的分类结果。有人知道怎么回事吗?谢谢

-这两个数据集本质上相同吗?是否有任何可能的巨大差异,你只是忽略了您是否对第二个数据集应用了相同的预处理步骤?-您是否定义了适当的性能指标?这两个数据集非常相似。我没有应用任何预处理步骤,因为tensorflow提供的代码中执行了均值减法。我没有定义度量,但我只是使用tensorflow的retain.py脚本进行转移学习和再培训inception-v2——“当我将模型应用到新数据集时,我得到的分类结果很差”,听起来似乎过于拟合了。-您是否尝试过使用80000张图像中的60000张对模型进行再培训,然后在其他20000张图像上进行测试?如果有效,那么可能是@Mohammaddrazzaghnoori提到的数据集差异问题;如果不是,那么您可能需要调查retain.py。-这两个数据集本质上是相同的吗?是否有任何可能的巨大差异,你只是忽略了您是否对第二个数据集应用了相同的预处理步骤?-您是否定义了适当的性能指标?这两个数据集非常相似。我没有应用任何预处理步骤,因为tensorflow提供的代码中执行了均值减法。我没有定义度量,但我只是使用tensorflow的retain.py脚本进行转移学习和再培训inception-v2——“当我将模型应用到新数据集时,我得到的分类结果很差”,听起来似乎过于拟合了。-您是否尝试过使用80000张图像中的60000张对模型进行再培训,然后在其他20000张图像上进行测试?如果有效,那么可能是@Mohammaddrazzaghnoori提到的数据集差异问题;如果没有,那么您可能需要调查retain.py。