Machine learning 如何使用全卷积网在Cifar10上获得最先进的结果?

Machine learning 如何使用全卷积网在Cifar10上获得最先进的结果?,machine-learning,neural-network,conv-neural-network,pytorch,Machine Learning,Neural Network,Conv Neural Network,Pytorch,我试图复制的结果,但我似乎无法。我已经从提供的实现中复制了所有超参数,我不知道该怎么办。我得到的误差是~0.2,而不是~0.1。有人能在Pytorch上复制这个结果吗 培训看起来不错,所以我不确定出了什么问题: 其他相关链接: 代码: 当使用lr为0.01、动量为0.9、批量为32的SGD时,至少可以得到13%的误差。我使用实现中给出的数据扩充。本文还使用了0.001的重量衰减。对我来说,这将导致14%。 因此,该实现使用不同的学习速率,并且不使用白化和对比度归一化。也许最后两个是达到

我试图复制的结果,但我似乎无法。我已经从提供的实现中复制了所有超参数,我不知道该怎么办。我得到的误差是~0.2,而不是~0.1。有人能在Pytorch上复制这个结果吗

培训看起来不错,所以我不确定出了什么问题:


其他相关链接:


代码


当使用lr为0.01、动量为0.9、批量为32的SGD时,至少可以得到13%的误差。我使用实现中给出的数据扩充。本文还使用了0.001的重量衰减。对我来说,这将导致14%。 因此,该实现使用不同的学习速率,并且不使用白化和对比度归一化。也许最后两个是达到7.25%的关键


无论如何,结果非常奇怪,因为如果不增加数据,网络应该已经达到9.08%。

您获得了“~0.2错误,而不是~0.1”,但您只链接到类定义。你的批量是多少?训练年代?您应该包括您自己的代码,提供这些详细信息,可能还有其他(数据增强?)。@desertnaut代码部分下的第二个链接请提供您的代码。此外,你显然是太过分了。@FredGuth我提供的链接有什么问题吗?如果有帮助的话,我可以复制粘贴它们。