Keras BatchNormalization和ELU在只有2层和一个小数据集的情况下?

Keras BatchNormalization和ELU在只有2层和一个小数据集的情况下?,keras,conv-neural-network,batch-normalization,Keras,Conv Neural Network,Batch Normalization,我想用一个小数据集训练一个CNN,只有500张图像。我想知道是否只有当CNN的ConvLayer比只有2个时才推荐BatchNormalization BatchNormalization的目标应该是解决渐变问题。只有当CNN有两层以上的层时,才可能出现渐变,对吗?当网络更大时,ELU也应该有同样的原因,对吗 你的经历是什么? 我希望得到任何提示,因为这个案例非常重要。批量规范化与渐变无关——这是激活函数的工作。批量规范化提高了网络学习的速度和稳定性 通常,无论网络大小如何,您都希望同时使用BN

我想用一个小数据集训练一个CNN,只有500张图像。我想知道是否只有当CNN的ConvLayer比只有2个时才推荐BatchNormalization

BatchNormalization的目标应该是解决渐变问题。只有当CNN有两层以上的层时,才可能出现渐变,对吗?当网络更大时,ELU也应该有同样的原因,对吗

你的经历是什么?
我希望得到任何提示,因为这个案例非常重要。

批量规范化与渐变无关——这是激活函数的工作。批量规范化提高了网络学习的速度和稳定性


通常,无论网络大小如何,您都希望同时使用BN和RELU。

好的,我在批处理规范化时弄错了。批量规范化更多的是用于网络的调节。在较小的网络规模中使用ELU而不是RELU会有什么问题?哦,对不起,我与ELU自相矛盾。但是,如果您也在较小的网络中使用ELU,可能不会有什么坏处?它可能会训练更长的时间。@CodeNow您可能应该解释您试图从这个网络中获得什么,以及为什么选择这个网络大小。2个CNN层只能识别小的基本模式。好的,我有2个CNN架构,一个有2个ConvLayers,另一个有6个ConvLayers。这两种体系结构在结构上非常相似。如果我使用相同的数据集对两者进行训练,我在这两种情况下都会得到很好的结果。然而,我们的目标是仅使用该数据集的一小部分进行训练,并找到合适的模型。该模型不应过于复杂,也不应导致拟合不足。这就是为什么我想找到好的辍学率,好的学习率和最佳的学习层数。我不在这种情况下使用数据增强。@CodeNow您希望从您的网络中获得什么样的输出?