Neural network 卷积中的反向传播

Neural network 卷积中的反向传播,neural-network,convolution,backpropagation,deep-learning,Neural Network,Convolution,Backpropagation,Deep Learning,我在理解反向传播如何在卷积层中工作时遇到了一些困难。事实上,在计算隐藏层中的错误后,我们可以在错误图像中表示它。但是在那之后,我如何更新内核呢 我在下图中给出了一个例子:我们有一个镜像错误(l+1)(计算了反向传播)连接到父级的输出(l)和相关的内核K 在位置(x,y)处,误差为:err=e1.k'1+e2.k'2+…+e9.k'9(k'为(l+1)中的核系数)。因此,如果我们没有时刻,没有激活函数,没有学习率,那么K的修正值将是: K1=K1+err*e1 K2=K2+err*e2 第一个解

我在理解反向传播如何在卷积层中工作时遇到了一些困难。事实上,在计算隐藏层中的错误后,我们可以在错误图像中表示它。但是在那之后,我如何更新内核呢

我在下图中给出了一个例子:我们有一个镜像错误(l+1)(计算了反向传播)连接到父级的输出(l)和相关的内核K

在位置(x,y)处,误差为:err=e1.k'1+e2.k'2+…+e9.k'9(k'为(l+1)中的核系数)。因此,如果我们没有时刻,没有激活函数,没有学习率,那么K的修正值将是:

K1=K1+err*e1

K2=K2+err*e2

第一个解释正确吗? 之后,如何传播错误?我们是只在(x,y)位置传播误差,还是在(x+kx,y+ky)位置传播误差,而在(kx,ky)滤波器K位置传播误差


反向传播在卷积网络中的工作原理与在深层神经网络中的工作原理相同。唯一的区别是,由于卷积过程中的权重共享机制,应用于卷积层中权重的更新量也被共享

如果您在这里没有很好的答案,那么www.stats.stackexchange.com上的交叉验证可能是一个更好的问机器学习问题的地方。