Deep learning 反褶积(向后卷积)是什么意思?

Deep learning 反褶积(向后卷积)是什么意思?,deep-learning,caffe,conv-neural-network,deconvolution,Deep Learning,Caffe,Conv Neural Network,Deconvolution,卷积神经网络中的反卷积或向后卷积是什么意思 我理解卷积,如果我们考虑一个3x3窗口W和一个相同大小的核K,卷积W*K的结果将是一个值。这里k是一个包含3x3个元素的矩阵 据我所知,反褶积法试图对特征地图进行上采样,以获得更大的地图。它是否使用相同的卷积矩阵来获得特征图?如果没有,如何计算反向传播的梯度?详细的解释将非常有用。详细的解释远远超出StackOverflow的范围;这不是一个教程网站 一般来说,反褶积更像是一种反向卷积:每个像素影响提取它的3x3区域,应用滤波器的傅里叶变换对输入参数进

卷积神经网络中的反卷积或向后卷积是什么意思

我理解卷积,如果我们考虑一个3x3窗口W和一个相同大小的核K,卷积W*K的结果将是一个值。这里k是一个包含3x3个元素的矩阵


据我所知,反褶积法试图对特征地图进行上采样,以获得更大的地图。它是否使用相同的卷积矩阵来获得特征图?如果没有,如何计算反向传播的梯度?详细的解释将非常有用。

详细的解释远远超出StackOverflow的范围;这不是一个教程网站

一般来说,反褶积更像是一种反向卷积:每个像素影响提取它的3x3区域,应用滤波器的傅里叶变换对输入参数进行反向工程。它通常用于信号处理,以降低噪声、锐化特征等

例如,将x-y平面上的十几个数据点可视化,大致沿二次曲线分布。有多种最佳拟合方法可以将四次方程(或立方体的滚动组合)映射到给定的点。这是一种反褶积

这里有一些参考资料;我希望其中一两个达到你需要的水平


正如@papirrin所指出的,@Prune给出的答案有点误导。在CNNs(或完全卷积神经网络,这是首次提出反卷积的地方)中,反卷积并不完全是卷积的反面。更准确地说,CNN中的反褶积只会反转形状,而不会反转内容。反褶积的名称具有误导性,因为反褶积已在数学上定义,因此,在下文中,我们将使用转置卷积来表示“CNN中的反褶积”

为了理解转置卷积,在执行卷积运算时,需要将卷积运算的滤波器转换为矩阵。然后,卷积运算可以定义为
Y=WX
。然后,在转置卷积中,我们基本上转置矩阵,输出将被计算为
Y=W^TX
。有关一些示例,您可以参考和

至于如何得到转置卷积中的卷积矩阵,这取决于如何使用它。对于图像分割,它是在反向传播过程中学习的。在一些中间特征图的可视化中(例如,ECCV14论文:),它直接来自卷积运算。总之,这两种方法都很好


对于如何计算梯度,它与卷积完全相同。您还可以解释转置卷积运算,因为它基本上交换了卷积运算的前向和后向过程。

我想添加一个我发现对理解反卷积(也称为转置卷积)非常有用的资源。在本文的第四部分“深度学习卷积算法指南”中,Dumoulin以非常直观的方式解释了什么是转置卷积。这个答案是错误的,误导性的。神经网络中的“反褶积”是一个糟糕的名称选择,与实际的反褶积无关。这里有更多信息。