Pytorch 在Pytork中使用torchvision.transforms增强数据

Pytorch 在Pytork中使用torchvision.transforms增强数据,pytorch,data-augmentation,Pytorch,Data Augmentation,我发现可以通过使用torchvision.transforms在Pytork中进行数据扩充。我还读到,变换在每个时代都被应用。因此,我想知道多次复制每个样本,然后对其应用随机变换的效果是否与在原始数据集(唯一图像)上使用torchvision.transforms,然后只对其进行更长时间的训练(更多时代)的效果相同。 提前感谢。这是一个需要广泛回答的问题。不要误解TorchVision转换不会增加您的数据集。它在运行时对当前数据集应用随机或非随机变换。(因此每个时代都是独一无二的) 多次复制每个

我发现可以通过使用torchvision.transforms在Pytork中进行数据扩充。我还读到,变换在每个时代都被应用。因此,我想知道多次复制每个样本,然后对其应用随机变换的效果是否与在原始数据集(唯一图像)上使用torchvision.transforms,然后只对其进行更长时间的训练(更多时代)的效果相同。
提前感谢。

这是一个需要广泛回答的问题。不要误解TorchVision转换不会增加您的数据集。它在运行时对当前数据集应用随机或非随机变换。(因此每个时代都是独一无二的)

多次复制每个样本,然后对其应用随机变换的效果与在原始数据集(唯一图像)上使用torchvision.transforms并仅对其进行更长时间(更多时代)的训练的效果相同

答复- 要增加数据集,可以复制粘贴,也可以使用pyTorch或WEKA软件。然而,更多的时代与此完全不同。当然,使用的年代越多,模型就越好(直到验证损失和培训损失相互交叉)
希望这有帮助

“在每个历元对原始数据集进行随机转换,并只运行更多历元”-非常令人困惑,我希望编辑能够澄清这一点。如果有任何带有“随机”一词的转换,那么不,不一样。是否有可能预测哪一个会带来更好的性能?在每个历元开始时应用,bcz这就是“随机”变换的全部要点,即生成不同的样本。