Deep learning 两个卷积层之间的互连
我有一个关于CNN中两个卷积层之间互连的问题。例如,假设我有这样的体系结构: 输入:28 x 28 conv1:3 x 3过滤器,过滤器数量:16 conv2:3 x 3过滤器,过滤器数量:32 conv1之后,假设图像的尺寸并没有减小,我们得到的输出为16×28×28。所以我们有16个特征图。在下一层中,每个特征映射连接到下一层,意味着如果我们将每个特征映射(28×28)视为神经元,那么每个神经元将连接到所有32个滤波器,意味着全部。Deep learning 两个卷积层之间的互连,deep-learning,conv-neural-network,Deep Learning,Conv Neural Network,我有一个关于CNN中两个卷积层之间互连的问题。例如,假设我有这样的体系结构: 输入:28 x 28 conv1:3 x 3过滤器,过滤器数量:16 conv2:3 x 3过滤器,过滤器数量:32 conv1之后,假设图像的尺寸并没有减小,我们得到的输出为16×28×28。所以我们有16个特征图。在下一层中,每个特征映射连接到下一层,意味着如果我们将每个特征映射(28×28)视为神经元,那么每个神经元将连接到所有32个滤波器,意味着全部。 (3 x 3 x 16)x 32参数。这两层是如何堆叠或互
(3 x 3 x 16)x 32参数。这两层是如何堆叠或互连的?在人工神经网络的情况下,我们有两层之间的权重。CNN也有类似的节目吗?如何将一个卷积层的输出馈送到下一个卷积层?卷积层的参数数量为
n
滤波器的大小k×k
,位于f
特征映射之后
n ⋅ (f ⋅ k ⋅ k + 1)
其中+1
来自偏差
因此,每个f
过滤器不是形状k×k×1
,而是形状k×k×f
如何将一个卷积层的输出馈送到下一个卷积层
就像输入被馈送到第一个卷积层一样。没有区别(除了要素地图的数量)
单输入特征映射的卷积
图像来源:
另见:
多输入特征映射
它的工作原理是一样的:
- 过滤器与输入具有相同的深度。以前是1,现在更多了
- 您仍然可以在所有(x,y)位置上滑动过滤器。对于每个位置,它提供一个输出
- 第一转换层:160=16*(3*3+1)
- 第二转换层:4640=32*(16*3*3+1)
f
特征映射之后,具有n
大小k×k
的滤波器的卷积层的参数数量为
n ⋅ (f ⋅ k ⋅ k + 1)
其中+1
来自偏差
因此,每个f
过滤器不是形状k×k×1
,而是形状k×k×f
如何将一个卷积层的输出馈送到下一个卷积层
就像输入被馈送到第一个卷积层一样。没有区别(除了要素地图的数量)
单输入特征映射的卷积
图像来源:
另见:
多输入特征映射
它的工作原理是一样的:
- 过滤器与输入具有相同的深度。以前是1,现在更多了
- 您仍然可以在所有(x,y)位置上滑动过滤器。对于每个位置,它提供一个输出
- 第一转换层:160=16*(3*3+1)
- 第二转换层:4640=32*(16*3*3+1)