Kernel 反向传播在卷积神经网络(CNN)中是如何工作的?

Kernel 反向传播在卷积神经网络(CNN)中是如何工作的?,kernel,convolution,backpropagation,Kernel,Convolution,Backpropagation,关于CNN,我没有什么问题。下图中S2层和C3层之间使用了5*5大小的内核 问题1。那里使用了多少内核?这些内核是否都与层S2中的每个功能映射相连接? 问题2。使用最大池时,在反向传播错误时,最大池功能/神经元如何知道/确定从其前一个直接层中的哪个(功能映射/神经元)获得最大值? 第三季度。如果我们想训练内核,然后用随机值初始化,是否有任何公式可以使用反向传播的错误值更新这些内核值? 第四季度。在上图中,从F6层获取错误后,反向传播如何在“输入”层和“C5”层之间工作?Q1: C1->6粒 C3

关于CNN,我没有什么问题。下图中S2层和C3层之间使用了5*5大小的内核

问题1。那里使用了多少内核?这些内核是否都与层S2中的每个功能映射相连接?

问题2。使用最大池时,在反向传播错误时,最大池功能/神经元如何知道/确定从其前一个直接层中的哪个(功能映射/神经元)获得最大值?

第三季度。如果我们想训练内核,然后用随机值初始化,是否有任何公式可以使用反向传播的错误值更新这些内核值?

第四季度。在上图中,从F6层获取错误后,反向传播如何在“输入”层和“C5”层之间工作?

Q1: C1->6粒 C3->16粒

S2和S4只是子采样,这意味着2*2像素将减少到1像素 最常见的池机制是最大池:

 (  5   10 ) -->
 (         ) -->  (10)
 (  7    8 ) --> 
Q2: 您可以保存信息,或者如果有足够的时间,可以重新运行max_池,检查最大值在哪里,然后将错误放在这个位置。此2*2块中的其他值为零