Deep learning 数据(图像)标准化的最佳实践是什么?

Deep learning 数据(图像)标准化的最佳实践是什么?,deep-learning,classification,normalization,image-scaling,batch-normalization,Deep Learning,Classification,Normalization,Image Scaling,Batch Normalization,我知道以下几种方法: 每个图像的平均标准化(image.Mean/image.stddev)(这里的平均值是标量值) 对整个数据集进行平均归一化(图像avgmean/avgstddev)(这里的平均值是向量(2d/3d)) 每个图像上的最大最小规格化(image.min/image.Max image.min)(最小值和最大值是标量) 缩放图像除以255。使其在[0-1]范围内 我只是问,使用relu,哪一个被证明更好,如果它有任何意义,那么使用批处理规范化

我知道以下几种方法:

  • 每个图像的平均标准化(image.Mean/image.stddev)(这里的平均值是标量值)
  • 对整个数据集进行平均归一化(图像avgmean/avgstddev)(这里的平均值是向量(2d/3d))
  • 每个图像上的最大最小规格化(image.min/image.Max image.min)(最小值和最大值是标量)
  • 缩放图像除以255。使其在[0-1]范围内
  • 我只是问,使用relu,哪一个被证明更好,如果它有任何意义,那么使用批处理规范化