Machine learning 连接隐藏卷积层

Machine learning 连接隐藏卷积层,machine-learning,neural-network,artificial-intelligence,deep-learning,conv-neural-network,Machine Learning,Neural Network,Artificial Intelligence,Deep Learning,Conv Neural Network,我已经学习了普通的全连通人工神经网络,我开始学习convnet。我正在努力理解隐藏层是如何连接的。我确实了解输入矩阵如何通过每次移动一个局部感受野并通过相同/共享权重(对于每个特征图)向前馈送较小的值场到第一个隐藏层中的特征图,因此,每个特征图只有一组与局部感受野结构相同的权重。如果我错了,请纠正我。然后,特征映射使用池来简化映射。下一部分是当我感到困惑时,这里有一个指向3d CNN可视化的链接来帮助解释我的困惑 在左上角的键盘上画一个0-9之间的数字,你就会看到它是如何工作的。真的很酷。因此

我已经学习了普通的全连通人工神经网络,我开始学习convnet。我正在努力理解隐藏层是如何连接的。我确实了解输入矩阵如何通过每次移动一个局部感受野并通过相同/共享权重(对于每个特征图)向前馈送较小的值场到第一个隐藏层中的特征图,因此,每个特征图只有一组与局部感受野结构相同的权重。如果我错了,请纠正我。然后,特征映射使用池来简化映射。下一部分是当我感到困惑时,这里有一个指向3d CNN可视化的链接来帮助解释我的困惑

在左上角的键盘上画一个0-9之间的数字,你就会看到它是如何工作的。真的很酷。因此,在第一个池层之后的层上(第四行包含16个过滤器),如果您将鼠标悬停在过滤器上,您可以看到权重如何连接到上一个池层。在这一行上尝试不同的过滤器,我不理解的是将第二个卷积层连接到前一个池层的规则。例如,在最左边的过滤器上,它们完全连接到池层。但在更靠近右侧的图层上,它们只连接到先前合并的图层中的大约3个。看起来很随意

我希望我的解释有道理。我基本上对连接隐藏池层和下面隐藏卷积层的模式感到困惑。即使我的例子有点奇怪,我仍然希望得到某种解释或链接到一个好的解释


非常感谢。

欢迎来到自学成才的CNN的魔力。这让人困惑,因为网络在训练时制定了这些规则。这是图像处理示例;其中大多数训练方式与脊椎动物视觉皮层简化模型中的学习方式大致相似

通常,第一层的内核“学习”以“识别”输入的非常简单的特征:不同方向的线和边。下一层结合了更复杂的特征,可能是一个面向左侧的半圆,或一个特定的角度方向。模型越深入,“决策”就越复杂,内核就越复杂和/或不易识别

从左到右的连通性差异可能是开发人员有意进行的排序,或者仅仅是模型中的情况。一些特性只需要“参考”前一层的少数内核;其他人则需要一个全体委员会。请注意,简单的功能是如何连接到相对较少的内核的,而最终的决定是让十个类别中的每一个都使用最后一个FC层中的大部分“像素”级单元进行检查

您可能会四处寻找一些大型CNN实现的内核可视化,例如ILSVRC中的内核:GoogleNet、ResNet、VGG等。这些内核在各个层中都有一些引人注目的内核,包括车轮和挡泥板的模糊匹配、站立哺乳动物的前部、各种类型的脸等

这有帮助吗


所有这些都是训练期间有机生长的结果。

可能更适合这个问题。非常感谢。根据你所说的,我有几个后续问题。首先,如果我正确理解了在训练期间,连接是确定的,那么这背后的逻辑是什么,初始结构是什么?第二,难道没有更标准的方式将池连接到conv层吗?最后,你知道有没有关于这方面的教程?再次感谢(3)是的,这方面有很多课程和教程。您应该在发布此问题之前所做的研究中找到它们。在卷积神经网络(CNN)中寻找介绍性材料,但不要缩写,否则你的大部分点击都是通过新闻服务获得的)。当然,我看了很多,但似乎没有一个涵盖这一具体细节(1)和(2)连接层的真正“标准”方法,但有一些最著名的方法(BKMs),用于连接层集群的启发式算法,这些层往往工作得很好——更不用说层本身了。这背后的逻辑是1-3个深度学习研究生班的问题……有点超出堆栈溢出的范围。这个特定的示例是MNIST模型,您可以在线查找,与框架一致(Caffe、TensorFlow、火炬等)由您选择。学习如何连接层、层数等并不是一个细节,通常需要数月或数年的实验。这是一个非常年轻的领域;用于图像处理的CNN在2011年左右才崭露头角,因此我们仍在学习。您可以查看由ImageNet举办的年度图像处理竞赛ILSVRC的历史。