Machine learning 卷积神经网络的深度是多少?

Machine learning 卷积神经网络的深度是多少?,machine-learning,neural-network,deep-learning,conv-neural-network,Machine Learning,Neural Network,Deep Learning,Conv Neural Network,我在看卷积神经网络。在卷积神经网络中,神经元按3维排列(高度,宽度,深度)。我对CNN的深度有问题。我无法想象那是什么 他们在链接中说,CONV层的参数由一组可学习的过滤器组成。每个过滤器在空间上都很小(沿宽度和高度),但会延伸到输入卷的整个深度 例如,看这张图片。对不起,如果图像太糟糕了 我能理解这样一个想法,即我们从图像上去掉一小块区域,然后将其与“过滤器”进行比较。那么过滤器将收集小图像?他们还说,我们将把每个神经元只连接到输入体积的一个局部区域。这种连通性的空间范围是一个超参数,称为神经

我在看卷积神经网络。在卷积神经网络中,神经元按3维排列(
高度
宽度
深度
)。我对CNN的深度有问题。我无法想象那是什么

他们在链接中说,CONV层的参数由一组可学习的过滤器组成。每个过滤器在空间上都很小(沿宽度和高度),但会延伸到输入卷的整个深度

例如,看这张图片。对不起,如果图像太糟糕了

我能理解这样一个想法,即我们从图像上去掉一小块区域,然后将其与“过滤器”进行比较。那么过滤器将收集小图像?他们还说,我们将把每个神经元只连接到输入体积的一个局部区域。这种连通性的空间范围是一个超参数,称为神经元的感受野。那么感受野是否与过滤器具有相同的尺寸?这里的深度是多少?我们使用CNN的深度意味着什么

因此,我的问题主要是,如果我拍摄一张尺寸为
[32*32*3]
的图像(假设我有50000张这样的图像,使数据集
[50000*32*32*3]
),我应该选择什么作为其深度,深度意味着什么。过滤器的尺寸是多少

如果任何人都能提供一些链接,在这方面给出一些直觉,这将是非常有帮助的

编辑: 因此,在本教程的一部分(真实世界示例部分)中,它说,2012年赢得ImageNet挑战赛的Krizhevsky等人的体系结构接受了大小为[227x227x3]的图像。在第一个卷积层,它使用感受野大小为F=11、步幅为S=4、无零填充P=0的神经元。由于(227-11)/4+1=55,并且由于Conv层的深度为K=96,Conv层输出卷的大小为[55x55x96]。

这里我们看到的深度是96。那么深度是我任意选择的吗?还是我计算出来的?同样在上面的例子中(Krizhevsky等人),它们有96个深度。那么它的96度深度是什么意思呢?此外,本教程还说明了
每个过滤器在空间上都很小(沿宽度和高度),但可以延伸到输入卷的整个深度

这意味着深度将是这样的?如果是这样,那么我可以假设
深度=过滤器的数量

在深度神经网络中,深度是指网络的深度,但在这种情况下,深度用于视觉识别,并转化为图像的第三维度

在本例中,您有一个图像,该输入的大小为32x32x3,即
(宽度、高度、深度)
。当深度转换到训练图像的不同通道时,神经网络应该能够基于此参数进行学习

更新:

在你的CNN的每一层,它学习训练图像的规律。在最初的层中,规则是曲线和边,然后当你沿着层深入时,你开始学习更高层次的规则,如颜色、形状、对象等。这是基本思想,但有很多技术细节。在继续之前,尝试一下:

更新2:

请查看您提供的链接中的第一个图。它说,“在这个例子中,红色输入层保存图像,因此其宽度和高度为图像的尺寸,深度为3(红色、绿色、蓝色通道)。这意味着ConvNet神经元通过三维排列其神经元来转换输入图像

作为对您问题的回答,深度对应于图像的不同颜色通道。

此外,关于过滤深度。本教程说明了这一点

每个过滤器在空间上都很小(沿宽度和高度),但会延伸到输入卷的整个深度。

这基本上意味着,过滤器是图像的一小部分,它围绕图像的深度移动,以了解图像中的规律性

更新3:

对于真实世界的例子,我刚刚浏览了原稿,上面写着:第一个卷积层过滤224×224×3的输入图像,其中96个内核大小为11×11×3,跨步为4像素。

在本教程中,它将深度称为通道,但在现实世界中,您可以设计任意尺寸。毕竟这是你的设计

本教程旨在让您了解ConvNet在理论上是如何工作的,但是如果我设计了一个ConvNet,没有人能阻止我提出一个具有不同深度的ConvNet


这有意义吗?

网络的深度是网络中的层数。在本文中,深度为9层(如何计算层数的栅栏柱问题的模数?)。

我不知道为什么会有如此多的遗漏。一开始我也很难理解它,除了安德烈·卡帕蒂(Andrej Karpathy)(感谢d00d)之外,很少有人解释过它。尽管在他的writeup()中,他使用了与动画中不同的示例来计算输出体积的深度

首先阅读标题为“Numpy示例”的部分

这里,我们迭代地进行

在这种情况下,我们有一个11x11x4。(为什么我们从4开始有点奇怪,因为3的深度更容易掌握)

请注意这句话:

位置(x,y)处的深度柱(或光纤)将被激活 X[X,y,:]

深度切片,或相当于深度d处的激活贴图 将是激活X[:,:,d]

V[0,0,0]=np.sum(X[:5,:5,:]*W0)+b0

V是你的输出量。第0个索引v[0]是yo
receptive field of a neuron is 3D 
depth of output layer = depth of conv. layer