Image processing pytorch中rgb图像归一化参数背后的原因
我在很多教程和pytorch文档中都看到了Image processing pytorch中rgb图像归一化参数背后的原因,image-processing,pytorch,rgb,Image Processing,Pytorch,Rgb,我在很多教程和pytorch文档中都看到了转换。规范化((0.485,0.456,0.406),(0.229,0.224,0.225)),我知道第一个参数是mean,第二个是std。我不明白为什么不同通道的值不同。这可能只是代码作者(如COCO或PascalVOC)原始数据集中颜色的分布。所有的颜色都是平等的,这只是偶然的。然而,如果你在你的案例中使用相同的方法,我怀疑这会有很大的不同,因为方法和性病相似 例如,在我从GoPro相机获取的自定义数据集中,平均值和标准偏差如下所示: mean: [
转换。规范化((0.485,0.456,0.406),(0.229,0.224,0.225))
,我知道第一个参数是mean,第二个是std。我不明白为什么不同通道的值不同。这可能只是代码作者(如COCO或PascalVOC)原始数据集中颜色的分布。所有的颜色都是平等的,这只是偶然的。然而,如果你在你的案例中使用相同的方法,我怀疑这会有很大的不同,因为方法和性病相似
例如,在我从GoPro相机获取的自定义数据集中,平均值和标准偏差如下所示:
mean: [0.2841186 , 0.32399923, 0.27048702],
std: [0.21937862, 0.26193094, 0.23754872]
在手段几乎不平等的情况下。然而,这并不意味着在ML模型中对它们的处理有所不同。所有这些转换所做的就是确保每个特征都是标准化的(通过z分数标准化)
这样想:如果一种颜色在你的数据集中以更高的强度表示(例如,如果你有很多关于海滩、天空、泻湖等的充满活力的“蓝色”图片),然后,您必须从该通道中减去一个较大的数字,以确保数据标准化。这可能只是代码作者(如COCO或PascalVOC)原始数据集中颜色的分布。所有的颜色都是平等的,这只是偶然的。然而,如果你在你的案例中使用相同的方法,我怀疑这会有很大的不同,因为方法和性病相似 例如,在我从GoPro相机获取的自定义数据集中,平均值和标准偏差如下所示:
mean: [0.2841186 , 0.32399923, 0.27048702],
std: [0.21937862, 0.26193094, 0.23754872]
在手段几乎不平等的情况下。然而,这并不意味着在ML模型中对它们的处理有所不同。所有这些转换所做的就是确保每个特征都是标准化的(通过z分数标准化)
可以这样想:如果一种颜色在数据集中以通常更高的强度表示(例如,如果你有很多关于海滩、天空、泻湖等的生动“蓝色”图片),那么你必须从该通道中减去一个更大的数字,以确保数据标准化。不确定具体的示例,但一般来说,图像标准化(或RGB->灰度转换)中的不同参数与我们视觉感知中的原因有关。我们的眼睛对不同的颜色不太敏感。不确定具体的例子,但一般来说,图像标准化(或RGB->灰度转换)中的不同参数与我们视觉感知中的原因有关。我们的眼睛对不同的颜色并不同样敏感。