Kernel 反向传播在卷积神经网络(CNN)中是如何工作的?
关于CNN,我没有什么问题。下图中S2层和C3层之间使用了5*5大小的内核 问题1。那里使用了多少内核?这些内核是否都与层S2中的每个功能映射相连接?Kernel 反向传播在卷积神经网络(CNN)中是如何工作的?,kernel,convolution,backpropagation,Kernel,Convolution,Backpropagation,关于CNN,我没有什么问题。下图中S2层和C3层之间使用了5*5大小的内核 问题1。那里使用了多少内核?这些内核是否都与层S2中的每个功能映射相连接? 问题2。使用最大池时,在反向传播错误时,最大池功能/神经元如何知道/确定从其前一个直接层中的哪个(功能映射/神经元)获得最大值? 第三季度。如果我们想训练内核,然后用随机值初始化,是否有任何公式可以使用反向传播的错误值更新这些内核值? 第四季度。在上图中,从F6层获取错误后,反向传播如何在“输入”层和“C5”层之间工作?Q1: C1->6粒 C3
问题2。使用最大池时,在反向传播错误时,最大池功能/神经元如何知道/确定从其前一个直接层中的哪个(功能映射/神经元)获得最大值?
第三季度。如果我们想训练内核,然后用随机值初始化,是否有任何公式可以使用反向传播的错误值更新这些内核值?
第四季度。在上图中,从F6层获取错误后,反向传播如何在“输入”层和“C5”层之间工作?Q1: C1->6粒 C3->16粒 S2和S4只是子采样,这意味着2*2像素将减少到1像素 最常见的池机制是最大池:
( 5 10 ) -->
( ) --> (10)
( 7 8 ) -->
Q2:
您可以保存信息,或者如果有足够的时间,可以重新运行max_池,检查最大值在哪里,然后将错误放在这个位置。此2*2块中的其他值为零