Deep learning 两个卷积层之间的互连

Deep learning 两个卷积层之间的互连,deep-learning,conv-neural-network,Deep Learning,Conv Neural Network,我有一个关于CNN中两个卷积层之间互连的问题。例如,假设我有这样的体系结构: 输入:28 x 28 conv1:3 x 3过滤器,过滤器数量:16 conv2:3 x 3过滤器,过滤器数量:32 conv1之后,假设图像的尺寸并没有减小,我们得到的输出为16×28×28。所以我们有16个特征图。在下一层中,每个特征映射连接到下一层,意味着如果我们将每个特征映射(28×28)视为神经元,那么每个神经元将连接到所有32个滤波器,意味着全部。 (3 x 3 x 16)x 32参数。这两层是如何堆叠或互

我有一个关于CNN中两个卷积层之间互连的问题。例如,假设我有这样的体系结构:

输入:28 x 28

conv1:3 x 3过滤器,过滤器数量:16

conv2:3 x 3过滤器,过滤器数量:32

conv1之后,假设图像的尺寸并没有减小,我们得到的输出为16×28×28。所以我们有16个特征图。在下一层中,每个特征映射连接到下一层,意味着如果我们将每个特征映射(28×28)视为神经元,那么每个神经元将连接到所有32个滤波器,意味着全部。
(3 x 3 x 16)x 32参数。这两层是如何堆叠或互连的?在人工神经网络的情况下,我们有两层之间的权重。CNN也有类似的节目吗?如何将一个卷积层的输出馈送到下一个卷积层?

卷积层的参数数量为
n
滤波器的大小
k×k
,位于
f
特征映射之后

n ⋅ (f ⋅ k ⋅ k + 1)
其中
+1
来自偏差

因此,每个
f
过滤器不是形状
k×k×1
,而是形状
k×k×f

如何将一个卷积层的输出馈送到下一个卷积层

就像输入被馈送到第一个卷积层一样。没有区别(除了要素地图的数量)

单输入特征映射的卷积

图像来源:

另见:

多输入特征映射 它的工作原理是一样的:

  • 过滤器与输入具有相同的深度。以前是1,现在更多了
  • 您仍然可以在所有(x,y)位置上滑动过滤器。对于每个位置,它提供一个输出
你的榜样
  • 第一转换层:160=16*(3*3+1)
  • 第二转换层:4640=32*(16*3*3+1)

f
特征映射之后,具有
n
大小
k×k
的滤波器的卷积层的参数数量为

n ⋅ (f ⋅ k ⋅ k + 1)
其中
+1
来自偏差

因此,每个
f
过滤器不是形状
k×k×1
,而是形状
k×k×f

如何将一个卷积层的输出馈送到下一个卷积层

就像输入被馈送到第一个卷积层一样。没有区别(除了要素地图的数量)

单输入特征映射的卷积

图像来源:

另见:

多输入特征映射 它的工作原理是一样的:

  • 过滤器与输入具有相同的深度。以前是1,现在更多了
  • 您仍然可以在所有(x,y)位置上滑动过滤器。对于每个位置,它提供一个输出
你的榜样
  • 第一转换层:160=16*(3*3+1)
  • 第二转换层:4640=32*(16*3*3+1)

实际上,第一个卷积层只有一个输入图像。在第一个卷积层之后,我们输出了16幅图像(特征图),对吗?那么,第二个卷积层将如何输入这16幅图像?第二个卷积层将如何输入这16幅图像并输出32幅图像(特征图)?因此,第二个卷积层中的每个滤波器都有16个输入?这就是卷积滤波器如何与一个输入特征映射一起工作:-如果有多个输入特征映射,则滤波器只获得一个深度维度。没有大的变化。另请参见:实际上第一个卷积层只有一个输入图像。在第一个卷积层之后,我们输出了16幅图像(特征图),对吗?那么,第二个卷积层将如何输入这16幅图像?第二个卷积层将如何输入这16幅图像并输出32幅图像(特征图)?因此,第二个卷积层中的每个滤波器都有16个输入?这就是卷积滤波器如何与一个输入特征映射一起工作:-如果有多个输入特征映射,则滤波器只获得一个深度维度。没有大的变化。另请参见: