Machine learning 为什么深剩余网络中的每个块都有两个卷积层而不是一个?

Machine learning 为什么深剩余网络中的每个块都有两个卷积层而不是一个?,machine-learning,deep-learning,conv-neural-network,deeplearning4j,deep-residual-networks,Machine Learning,Deep Learning,Conv Neural Network,Deeplearning4j,Deep Residual Networks,此图显示剩余网络的基本块。什么有两个卷积层?当它只有一个卷积层时会发生什么情况?它应该仍然可以使用类似的结果。只跳过一层没有问题 看 丹塞涅茨呢


此图显示剩余网络的基本块。什么有两个卷积层?当它只有一个卷积层时会发生什么情况?

它应该仍然可以使用类似的结果。只跳过一层没有问题

看 丹塞涅茨呢