Machine learning 大踏步

Machine learning 大踏步,machine-learning,deep-learning,computer-vision,conv-neural-network,Machine Learning,Deep Learning,Computer Vision,Conv Neural Network,在CNN中,如果使用填充,使图像的大小在经过几层卷积后不会缩小,那么我们为什么要使用跨步卷积呢?我想知道,因为跨步卷积也在减小图像的大小。因为我们想减小图像的大小。有一些原因: 减少计算和内存需求 将局部要素聚合到更高级别的要素 随后的回旋在最初的尺度上会有一个更大的感受野 传统上,我们使用池来减小图像的大小,比如最大池。跨步卷积是实现这一点的另一种方法(而且越来越流行) 是的。但是为什么我们在一个网络中使用填充和跨步,就像填充用来增加大小,跨步用来减小大小一样。这不是一个无用的步骤吗……应该正

在CNN中,如果使用填充,使图像的大小在经过几层卷积后不会缩小,那么我们为什么要使用跨步卷积呢?我想知道,因为跨步卷积也在减小图像的大小。

因为我们想减小图像的大小。有一些原因:

  • 减少计算和内存需求
  • 将局部要素聚合到更高级别的要素
  • 随后的回旋在最初的尺度上会有一个更大的感受野

  • 传统上,我们使用池来减小图像的大小,比如最大池。跨步卷积是实现这一点的另一种方法(而且越来越流行)

    是的。但是为什么我们在一个网络中使用填充和跨步,就像填充用来增加大小,跨步用来减小大小一样。这不是一个无用的步骤吗……应该正确使用其中一个???@AnuragKedia通常我们不会在每一步都使用跨步卷积。我们只是偶尔减少一次采样,所以在每一层填充输出图像的大小将类似于512->512->256->256->128->128->。。。而且很容易理解。如果没有填充,它将像512->510->205->。。。这很难理解。从什么方面来说很难理解?@AnuragKedia研究人员很难理解?还可以简化快捷连接,如在resnet或Unet中。大多数情况下,1或2行/列的像素并不重要,人们倾向于保持简单。