在';Keras&x27;的ResNet50模型;,为什么使用步幅为2的1x1卷积?

在';Keras&x27;的ResNet50模型;,为什么使用步幅为2的1x1卷积?,keras,Keras,ResNet50在这里: 在“conv_块”中,第一层如下所示: x = Conv2D(filters1 = 64, # number of filters kernel_size=(1, 1), # height/width of filters strides=(2, 2) # stride )(input_tensor) 我的问题是: 这一层不会漏掉一些像素吗? 这种1x1卷

ResNet50在这里:

在“conv_块”中,第一层如下所示:

x = Conv2D(filters1 = 64,           # number of filters
           kernel_size=(1, 1),      # height/width of filters
           strides=(2, 2)           # stride
          )(input_tensor)
我的问题是: 这一层不会漏掉一些像素吗?

这种1x1卷积只看1个像素,然后移动2个像素(步长=2)。

在Resnet的原始论文中提到:

卷积层主要有3×3滤波器和 遵循两个简单的设计规则:(i)对于相同的输出 特征图大小,图层具有相同数量的过滤器;和(ii)如果特征图大小减半,则过滤器的数量将增加一倍,以保持每层的时间复杂度。我们通过以下方式直接执行下采样: 步幅为2的卷积层

<>你可以认为它是一个置换池的替代物,它比计算整个激活图,然后汇集它减少了整个模型的计算复杂度。