Keras 卷积核是如何在CNN中得到训练的?

Keras 卷积核是如何在CNN中得到训练的?,keras,conv-neural-network,convolution,backpropagation,Keras,Conv Neural Network,Convolution,Backpropagation,在CNN中,卷积运算将核矩阵“卷积”到输入矩阵上。现在,我知道了一个完全连接的层是如何利用梯度下降和反向传播进行训练的。但是内核矩阵是如何随时间变化的呢 如前所述,初始化内核矩阵的方法有多种。然而,我有兴趣知道它是如何训练的?如果它也使用反向传播,那么有没有详细描述培训过程的文章 这也提出了一个类似的问题,但尚未得到回答 关于卷积层的反向传播,你有一篇解释得很好的帖子。简而言之,它也是梯度下降,就像FC层一样。事实上,如前所述,您可以有效地将卷积层转换为完全连接的层

在CNN中,卷积运算将核矩阵“卷积”到输入矩阵上。现在,我知道了一个完全连接的层是如何利用梯度下降和反向传播进行训练的。但是内核矩阵是如何随时间变化的呢

如前所述,初始化内核矩阵的方法有多种。然而,我有兴趣知道它是如何训练的?如果它也使用反向传播,那么有没有详细描述培训过程的文章

这也提出了一个类似的问题,但尚未得到回答

关于卷积层的反向传播,你有一篇解释得很好的帖子。简而言之,它也是梯度下降,就像FC层一样。事实上,如前所述,您可以有效地将卷积层转换为完全连接的层