Deep learning 卷积网络上随机图像裁剪的好处是什么?

Deep learning 卷积网络上随机图像裁剪的好处是什么?,deep-learning,pytorch,Deep Learning,Pytorch,我正在学习pytorch教程中的迁移学习。我发现pytorch教程作者使用不同的方法来训练集和验证集 data\u转换={ “训练”:变换。组合([ transforms.RandomResizedCrop(224), transforms.RandomHorizontalFlip(), transforms.ToTensor(), 标准化([0.485,0.456,0.406],[0.229,0.224,0.225]) ]), “val”:转换。组合([ 变换。调整大小(256), 变换。中心

我正在学习pytorch教程中的迁移学习。我发现pytorch教程作者使用不同的方法来训练集和验证集

data\u转换={
“训练”:变换。组合([
transforms.RandomResizedCrop(224),
transforms.RandomHorizontalFlip(),
transforms.ToTensor(),
标准化([0.485,0.456,0.406],[0.229,0.224,0.225])
]),
“val”:转换。组合([
变换。调整大小(256),
变换。中心裁剪(224),
transforms.ToTensor(),
标准化([0.485,0.456,0.406],[0.229,0.224,0.225])
]),
}

如上所述,培训课程在培训中使用随机裁剪的图像。但我发现,经过这种变换后,一些图像与目标对象完全分离,并且没有有用的特征用于检测。我很好奇为什么作者选择了这种方法,即使定义不同的管道来训练和验证数据集更加困难。随机种植有什么好处吗?

随机种植背后有两个想法:

简而言之:

  • 扩展用于培训的数据量
  • 使神经网络更加健壮
更多详细信息:

图像的语义得到保留,但conv网络的激活值不同。conv网络学习将更大范围的空间激活与特定类别标签相关联,并提高conv网络中特征检测器的鲁棒性

看这段摘录