Neural network 我们如何计算卷积输出的深度?

Neural network 我们如何计算卷积输出的深度?,neural-network,deep-learning,artificial-intelligence,conv-neural-network,convolution,Neural Network,Deep Learning,Artificial Intelligence,Conv Neural Network,Convolution,我们如何在Conv输出中获得特征图编号(深度H) 我认为H=D*过滤器的数量 H可自由选择。它不依赖于任何其他参数 每个H“特征映射”将由不同的KXD内核生成。这通常被描述为单个4D内核,形状为H x k x k x D 在原文中,它说了同样的话,但也许更清楚: 输入大小为nxnxd,并与H个内核进行卷积,每个内核的大小分别为kxkxd。输入与一个核的卷积产生一个输出特征,而与H核的卷积独立产生H特征 这个术语一开始可能会令人困惑,因为同一件事使用了多个术语。H可以称为内核数、过滤器数、输出特

我们如何在Conv输出中获得特征图编号(深度H)

我认为H=D*过滤器的数量


H可自由选择。它不依赖于任何其他参数

每个H“特征映射”将由不同的KXD内核生成。这通常被描述为单个4D内核,形状为H x k x k x D

在原文中,它说了同样的话,但也许更清楚:

输入大小为nxnxd,并与H个内核进行卷积,每个内核的大小分别为kxkxd。输入与一个核的卷积产生一个输出特征,而与H核的卷积独立产生H特征


这个术语一开始可能会令人困惑,因为同一件事使用了多个术语。H可以称为内核数、过滤器数、输出特性数或过滤器映射数。

谢谢@myrtlecat先生,所以他不能用D、K或DSee中的任何一个来描述:,第2章(从第3页开始)。特别是图2.2根据我对该图的阅读,H是过滤器的数量。你能公布这个数字的来源或周围的一些文字吗?@myrtlecat这是来源:根据源文件,我将坚持我的答案:H可以自由选择,不依赖于D、N或k。我将在下面用文本中的相关引用更新我的答案。