Neural network 对于前一层的每个通道,一个卷积滤波器总是有不同的系数吗?

Neural network 对于前一层的每个通道,一个卷积滤波器总是有不同的系数吗?,neural-network,deep-learning,conv-neural-network,convolution,cudnn,Neural Network,Deep Learning,Conv Neural Network,Convolution,Cudnn,例如,我们有3个通道(红色、绿色、蓝色)的RGB图像。我们使用卷积神经网络 对于图像的每个通道(R、G、B),每个卷积滤波器是否总是有3个不同的系数 如下图所示,过滤器-W1是否有3个不同的系数矩阵:W1[::0]、W1[::1]、W1[::2] 或者在现代神经网络中,经常在一个滤波器中使用相同的系数(W1[::0]=W1[::1]=W1[::2]) 链接拍摄: 此外: 卷积层 沿深度轴的连接范围始终等于 输入卷的深度。再次强调这一点很重要 我们如何处理空间维度(宽度和高度)的不对称性 深

例如,我们有3个通道(红色、绿色、蓝色)的RGB图像。我们使用卷积神经网络

对于图像的每个通道(R、G、B),每个卷积滤波器是否总是有3个不同的系数

  • 如下图所示,过滤器-W1是否有3个不同的系数矩阵:
    W1[::0]、W1[::1]、W1[::2]

  • 或者在现代神经网络中,经常在一个滤波器中使用相同的系数(
    W1[::0]=W1[::1]=W1[::2]

  • 链接拍摄:


    此外:

    卷积层

    沿深度轴的连接范围始终等于 输入卷的深度。再次强调这一点很重要 我们如何处理空间维度(宽度和高度)的不对称性 深度维度:连接在空间中是局部的(沿 宽度和高度),但始终沿着输入的整个深度 音量


    这里表示的是第一个隐藏层(这里是卷积层)。每个过滤器都有3个通道,因为您的输入(对于该层,您的图像)有3个通道(RGB)。生成两个连接的要素贴图(这解释了(3x3)x2大小的输出体积)

    更一般地说,对于一个输入(为了简单地考虑一个大小为1)的大小(1x)WXHXC,每个过滤器都有一个NxNxC的大小(为了简单起见,我们考虑1的步长和一个‘相同’的填充,即使对于你的例子来说它是一个‘有效’填充物”,所以对于F过滤器,YOUT输出将有一个(1x)WXHXF的大小。

    希望它足够清晰(例如W=H=7、C=3、N=3和F=2)


    如果不够清楚,请随时发表评论:)

    谢谢!那些在卷积网络的标准经典使用中,滤波器的大小始终为NƏNƏC(在我的例子中为3x3x3)。你能解释一下,什么是“相同”填充和“有效”填充,它们有什么不同吗?相同的填充是当你用一个值填充你的输入时(在大多数情况下,人们做零填充),这样你甚至可以在边上应用卷积。因此,使用“相同”填充,最终输出的大小为WxHxF(空间维度的输入大小相同),如果使用“有效”填充,则意味着不使用零填充(因此不能处理边缘上的像素),因此最终输出的大小为W-(N-1)xH-(N-1)xF。请看这段视频(特别是从2:45开始的填充说明):