Machine learning 深层神经网络应该增加、减少或保持隐藏节点不变

Machine learning 深层神经网络应该增加、减少或保持隐藏节点不变,machine-learning,neural-network,deep-learning,conv-neural-network,Machine Learning,Neural Network,Deep Learning,Conv Neural Network,隐藏层中的隐藏节点数通常应增加、减少或保持不变。我看到在一些conv网络中,如alexnet、VGG和resnet,节点的数量在随后的层中会增加。这是为什么?它真的很重要吗?没有一般规则,如何构建神经网络完全取决于问题。几乎任何方案——减少、增加、小瓶颈、宽“瓶颈”——都有自己的应用。为了真正理解正在发生的事情,您需要大量的经验,但总体而言,调整体系结构非常棘手,通常需要一些“经验法则”,如“我们使用XXX使用的体系结构,然后尝试对其进行调整”。没有一般规则,如何构造神经网络完全取决于问题。几乎

隐藏层中的隐藏节点数通常应增加、减少或保持不变。我看到在一些conv网络中,如alexnet、VGG和resnet,节点的数量在随后的层中会增加。这是为什么?它真的很重要吗?

没有一般规则,如何构建神经网络完全取决于问题。几乎任何方案——减少、增加、小瓶颈、宽“瓶颈”——都有自己的应用。为了真正理解正在发生的事情,您需要大量的经验,但总体而言,调整体系结构非常棘手,通常需要一些“经验法则”,如“我们使用XXX使用的体系结构,然后尝试对其进行调整”。

没有一般规则,如何构造神经网络完全取决于问题。几乎任何方案——减少、增加、小瓶颈、宽“瓶颈”——都有自己的应用。为了真正理解正在发生的事情,您需要大量的经验,但总体而言,调整体系结构非常棘手,通常需要一些“经验法则”,如“我们使用XXX使用的体系结构,然后尝试对其进行调整”