Neural network 是否有任何标准来决定卷积层和池层的内核大小?

Neural network 是否有任何标准来决定卷积层和池层的内核大小?,neural-network,deep-learning,conv-neural-network,Neural Network,Deep Learning,Conv Neural Network,在这张照片中: (来源:) 输入为32x32,C1为28x28,卷积层和池层的内核大小分别为5x5和2x2。 但是为什么5x5不是其他数字,也就是我们如何决定内核大小?当问为什么内核大小是5时,为什么不问num\u输出(隐藏神经元的数量)是4 内核大小,如层的数量、隐藏变量的数量以及何时选择何种池方法,都是神经网络设计选择的一部分。接受这些价值观是设计新建筑的“黑暗艺术”的一部分,它通常涉及反复试验和漫长的培训过程 根据经验,内核越大,网络的训练/测试时间就越慢。另一方面,大内核使您能够学习更

在这张照片中:
(来源:)

输入为32x32,
C1
为28x28,
卷积层和池层的内核大小分别为5x5和2x2。

但是为什么5x5不是其他数字,也就是我们如何决定内核大小?

当问为什么
内核大小
是5时,为什么不问
num\u输出
(隐藏神经元的数量)是4

内核大小,如层的数量、隐藏变量的数量以及何时选择何种池方法,都是神经网络设计选择的一部分。接受这些价值观是设计新建筑的“黑暗艺术”的一部分,它通常涉及反复试验和漫长的培训过程


根据经验,内核越大,网络的训练/测试时间就越慢。另一方面,大内核使您能够学习更复杂的模板,从而使网络具有更强的表达能力。由您决定您希望在运行时与您的模型的表达能力之间的对比。

感谢您的解释。事实上,我也想知道如何确定num_输出,但我以前看到过一些关于这个主题的问题。这些问题的答案表明num_输出是一个可以调整的参数。确定特征图数量的最佳方法是尝试不同的值并检查其准确性。你对此有更好的想法吗?@zhaowularen如果你找到一个更好的方法,请尽快让我知道——调整这些“架构参数”是一项非常棘手的“黑暗艺术”…@Shai抱歉,我可能不得不再次麻烦您。我有一个关于tset结果的新问题。