Deep learning 推理时BatchNorm是否关闭?

Deep learning 推理时BatchNorm是否关闭?,deep-learning,batch-normalization,Deep Learning,Batch Normalization,我从多个来源中了解到,暗示关闭batchnorm进行推断,但对此我没有明确的答案。最常见的是使用均值和标准差的移动平均值进行批次标准化,例如Keras()。如果您只是将其关闭,由于图像处理方式的变化,网络在相同数据上的性能会更差 这是通过存储网络培训期间使用的所有批次的平均值和平均std来实现的。然后,在推断中,该移动平均值用于归一化

我从多个来源中了解到,暗示关闭batchnorm进行推断,但对此我没有明确的答案。

最常见的是使用均值和标准差的移动平均值进行批次标准化,例如Keras()。如果您只是将其关闭,由于图像处理方式的变化,网络在相同数据上的性能会更差

这是通过存储网络培训期间使用的所有批次的平均值和平均std来实现的。然后,在推断中,该移动平均值用于归一化