Machine learning 子采样层和卷积层之间的差异(卷积神经网络)

Machine learning 子采样层和卷积层之间的差异(卷积神经网络),machine-learning,neural-network,deep-learning,conv-neural-network,Machine Learning,Neural Network,Deep Learning,Conv Neural Network,有人能解释一下卷积层和子采样层之间的区别吗 在卷积步骤中,我们定义了卷积滤波器及其权重,对吗,在次采样步骤中,我们应用卷积滤波器,并通过使用步长和池来确定其大小。主要区别在于卷积是一种旨在从输入中提取特征的操作,而次采样的目的只是减少输入的维数。在标准CNN中,卷积层具有可训练的参数,这些参数在训练过程中进行调整,而子采样层是一个常量操作(通常由最大池层执行)。在CNN中,这种最大池通常有助于为模型添加一些空间不变性 我认为你的最后一段不是正确的看法 卷积:您有一个特定大小的过滤器。输出是该滤波

有人能解释一下卷积层和子采样层之间的区别吗


在卷积步骤中,我们定义了卷积滤波器及其权重,对吗,在次采样步骤中,我们应用卷积滤波器,并通过使用步长和池来确定其大小。主要区别在于卷积是一种旨在从输入中提取特征的操作,而次采样的目的只是减少输入的维数。在标准CNN中,卷积层具有可训练的参数,这些参数在训练过程中进行调整,而子采样层是一个常量操作(通常由最大池层执行)。在CNN中,这种最大池通常有助于为模型添加一些空间不变性

我认为你的最后一段不是正确的看法

卷积:您有一个特定大小的过滤器。输出是该滤波器与输入的不同区域(大小相似)的元素相乘。 您可以使用卷积滤波器的步长来执行输入的子采样。 例如:

对于7x7的输入,使用相同大小的过滤器,在第一幅跨距为1像素的图像中,我们获得5x5的输出,而在第二幅图像中使用2像素的跨距,我们获得3x3的输出。因此,从技术上讲,我们将子采样作为卷积层的一部分,但子采样是不可训练的(步幅大小是恒定的)

更常见的情况是,在谈论子采样层时(这可能是您发布的图像中的情况),意思是最大池层,类似于卷积,也有一个过滤器和一个一定大小的跨步。但是,没有可训练的权重(输出仅为每个区域的最大像素):


一种罕见的情况是使用一个平均池层作为该子采样层。

主要区别在于卷积是一种旨在从输入中提取特征的操作,而子采样的目的只是减少输入的维数。在标准CNN中,卷积层具有可训练的参数,这些参数在训练过程中进行调整,而子采样层是一个常量操作(通常由最大池层执行)。在CNN中,这种最大池通常有助于为模型添加一些空间不变性

我认为你的最后一段不是正确的看法

卷积:您有一个特定大小的过滤器。输出是该滤波器与输入的不同区域(大小相似)的元素相乘。 您可以使用卷积滤波器的步长来执行输入的子采样。 例如:

对于7x7的输入,使用相同大小的过滤器,在第一幅跨距为1像素的图像中,我们获得5x5的输出,而在第二幅图像中使用2像素的跨距,我们获得3x3的输出。因此,从技术上讲,我们将子采样作为卷积层的一部分,但子采样是不可训练的(步幅大小是恒定的)

更常见的情况是,在谈论子采样层时(这可能是您发布的图像中的情况),意思是最大池层,类似于卷积,也有一个过滤器和一个一定大小的跨步。但是,没有可训练的权重(输出仅为每个区域的最大像素):

一个罕见的情况是使用一个平均池层作为这个子采样层