Deep learning 关于使用1*1卷积的技巧

Deep learning 关于使用1*1卷积的技巧,deep-learning,computer-vision,pytorch,conv-neural-network,Deep Learning,Computer Vision,Pytorch,Conv Neural Network,我曾经读过关于使用1*1卷积的以下语句,它可以帮助连接不同维度的输入和输出: 例如,要将激活维度HxW减少2倍,可以使用步长为2的1x1卷积 如何理解此示例?您可以使用2的步幅。然而,我不会说这是一个把戏,不是一个保留信息的神奇解决方案。您将丢失一半的信息。我也不会将此方法限定为池方法 内核大小是一个像素高,一个像素宽,一次移动两个像素。因此,对于一行上的每个像素,内核将每两个像素输出一个值,即将输出该行上像素数的一半。对于高度,内核将完全丢弃一半的行 以下是6x6输入上大小为1x1和跨距为2的

我曾经读过关于使用1*1卷积的以下语句,它可以帮助连接不同维度的输入和输出:

例如,要将激活维度HxW减少2倍,可以使用步长为2的1x1卷积

如何理解此示例?

您可以使用2的步幅。然而,我不会说这是一个把戏,不是一个保留信息的神奇解决方案。您将丢失一半的信息。我也不会将此方法限定为池方法

内核大小是一个像素高,一个像素宽,一次移动两个像素。因此,对于一行上的每个像素,内核将每两个像素输出一个值,即将输出该行上像素数的一半。对于高度,内核将完全丢弃一半的行

以下是6x6输入上大小为1x1和跨距为2的二维卷积的示例。在左边,深黄色的1x1补丁是内核的连续位置。右边是生成的图像,形状为3x3


当您使用步幅2的1x1卷积时,输出的维数将是原来的一半,因为您在每个备选像素上都应用了1x1滤波器。我只想指出,OP自己提到过使用步幅2。也许他们无法正确地想象它,而你的说明会有所帮助。