在';Keras&x27;的ResNet50模型;,为什么使用步幅为2的1x1卷积?
ResNet50在这里: 在“conv_块”中,第一层如下所示:在';Keras&x27;的ResNet50模型;,为什么使用步幅为2的1x1卷积?,keras,Keras,ResNet50在这里: 在“conv_块”中,第一层如下所示: x = Conv2D(filters1 = 64, # number of filters kernel_size=(1, 1), # height/width of filters strides=(2, 2) # stride )(input_tensor) 我的问题是: 这一层不会漏掉一些像素吗? 这种1x1卷
x = Conv2D(filters1 = 64, # number of filters
kernel_size=(1, 1), # height/width of filters
strides=(2, 2) # stride
)(input_tensor)
我的问题是:
这一层不会漏掉一些像素吗?这种1x1卷积只看1个像素,然后移动2个像素(步长=2)。在Resnet的原始论文中提到: 卷积层主要有3×3滤波器和 遵循两个简单的设计规则:(i)对于相同的输出 特征图大小,图层具有相同数量的过滤器;和(ii)如果特征图大小减半,则过滤器的数量将增加一倍,以保持每层的时间复杂度。我们通过以下方式直接执行下采样: 步幅为2的卷积层 <>你可以认为它是一个置换池的替代物,它比计算整个激活图,然后汇集它减少了整个模型的计算复杂度。