Machine learning 卷积神经网络

Machine learning 卷积神经网络,machine-learning,computer-vision,neural-network,conv-neural-network,Machine Learning,Computer Vision,Neural Network,Conv Neural Network,这种对卷积神经网络的直观理解正确吗: 1.卷积基本上与图像的局部部分与卷积核/滤波器的相似程度相匹配 2.内核/过滤器就像一个特征检测器。重要的是,它是经过学习的,并通过SGD自动更改和优化的,这一点在Veeee对“相似程度”的粗略理解中是正确的。如果考虑点积作为测量相似度,则答案是肯定的。为什么我个人有疑问?因为它严重依赖于向量(或矩阵)的范数。让我们考虑图像 1 1 1 2 2 2 1 1 1 和内核 1 1 1 2 2 2 1 1 1 我们把他们召集起来 1 + 1 + 1 + 2*2

这种对卷积神经网络的直观理解正确吗: 1.卷积基本上与图像的局部部分与卷积核/滤波器的相似程度相匹配
2.内核/过滤器就像一个特征检测器。重要的是,它是经过学习的,并通过SGD自动更改和优化的,这一点在Veeee对“相似程度”的粗略理解中是正确的。如果考虑<强>点积<强>作为测量相似度,则答案是肯定的。为什么我个人有疑问?因为它严重依赖于向量(或矩阵)的范数。让我们考虑图像

1 1 1
2 2 2
1 1 1
和内核

1 1 1
2 2 2
1 1 1
我们把他们召集起来

1 + 1 + 1 + 2*2 + 2*2 + 2*2 + 1 + 1 + 1 = 18
现在让我们来拍照

2 2 2
2 2 2
2 2 2
我们得到了

2 + 2 + 2 + 2*2 + 2*2 + 2*2 + 2 + 2 + 2 = 24
我会说第一个图像比另一个图像更接近内核,但卷积说明了其他一些东西。因此,这并不是那么简单,卷积只是图像的基本线性滤波,卷积信号,将点积应用于子样本,但称之为“相似性搜索”有点过分。然而,它是一个特征检测器,一个非常特殊的检测器


关于卷积,您在描述中缺少的关键点是这些检测器的共享性质,事实上,您学习了一组应用于图像每个“点”的局部图像过滤器,从而实现了一种位置不变性,并大大减少了模型的参数化

对“有多相似”的粗略理解也是如此。如果考虑<强>点积<强>作为测量相似度,则答案是肯定的。为什么我个人有疑问?因为它严重依赖于向量(或矩阵)的范数。让我们考虑图像

1 1 1
2 2 2
1 1 1
和内核

1 1 1
2 2 2
1 1 1
我们把他们召集起来

1 + 1 + 1 + 2*2 + 2*2 + 2*2 + 1 + 1 + 1 = 18
现在让我们来拍照

2 2 2
2 2 2
2 2 2
我们得到了

2 + 2 + 2 + 2*2 + 2*2 + 2*2 + 2 + 2 + 2 = 24
我会说第一个图像比另一个图像更接近内核,但卷积说明了其他一些东西。因此,这并不是那么简单,卷积只是图像的基本线性滤波,卷积信号,将点积应用于子样本,但称之为“相似性搜索”有点过分。然而,它是一个特征检测器,一个非常特殊的检测器


关于卷积,您在描述中缺少的关键点是这些检测器的共享性质,事实上,您学习了一组应用于图像每个“点”的局部图像过滤器,从而实现了一种位置不变性,并大大减少了模型的参数化

您给出的解释大致正确,但可以从详细阐述中获益

卷积神经网络的一种方式是以分层方式堆叠的位置无关模式识别器。卷积运算通过在输入空间的每个位置应用核来影响位置独立性

每个卷积层将识别特定的特征(从训练中学习)。可以将输出视为存在哪些功能以及在哪个位置的映射

堆叠卷积层允许后续层识别更复杂的特征(您可以将体系结构中的每个卷积层视为识别特征,这些特征本身就是在先前层中学习的特征的组成)

为了有效地训练这些网络,我们通常希望在接近输出分类器(在网络中从左到右移动)时向下“漏斗”数据维度。这通常是通过子采样(通过池操作(通常为最大值,有时为平均值)或卷积跨距(涉及在可能输出位置的抽取子集处评估卷积输出)来牺牲空间信息的一些粒度的问题

卷积和池运算共同学习输入空间的非线性投影。用数学术语来说,网络的“深”卷积部分已经学会了从非常高维的输入空间(例如在图像的情况下为RGB像素)到基本上传递入射和位置(通常为原始空间或时间分辨率的一小部分)的低维输出的非线性映射一组学习到的特征

一旦我们有了这样一个低维表示,它通常被展平并输入到“传统”完全连接的网络中,该网络能够在卷积层产生的(相对)低维抽象特征集上高效地执行分类或预测任务


历史上,许多分类方法依赖于复杂的“特征工程”来执行与卷积层学习的操作类似的操作,以便可处理且有效地训练分类器(可以是神经网络、随机森林、支持向量机或任何数量的其他算法)。ConvNets的强大之处在于,它能够消除对特征工程的需求,并将特征学习任务与分类器的训练充分结合起来

您给出的解释大致正确,但可以从详细阐述中获益

卷积神经网络的一种方式是以分层方式堆叠的位置无关模式识别器。卷积运算通过在输入空间的每个位置应用核来影响位置独立性

每个卷积层将识别特定的特征(从训练中学习)。可以将输出视为存在哪些功能以及在哪个位置的映射

堆叠卷积层允许后续层识别更复杂的特征(您可以想到每个卷积层)