Image processing 全局池做什么?

Image processing 全局池做什么?,image-processing,machine-learning,deep-learning,caffe,conv-neural-network,Image Processing,Machine Learning,Deep Learning,Caffe,Conv Neural Network,我最近在caffe的池层中找到了“global_pooling”标志,但是在这里的文档中找不到关于它的内容( 这里也没有() 与正常池层行为相比,是否有一个简单的前向示例性解释?使用全局池将维度从3D减少到1D。因此,全局池为每个功能映射输出1个响应。这可以是最大值、平均值或您使用的任何其他池操作 它通常用于卷积神经网络后端的末端,以获得适用于密集层的形状。因此,无需进行展平。如果您要查找有关caffe标志/参数的信息,最好在的注释中查找。 对于“全局池”参数: 有关caffe层的更多信息,请参

我最近在caffe的池层中找到了“global_pooling”标志,但是在这里的文档中找不到关于它的内容( 这里也没有()


与正常池层行为相比,是否有一个简单的前向示例性解释?

使用全局池将维度从3D减少到1D。因此,全局池为每个功能映射输出1个响应。这可以是最大值、平均值或您使用的任何其他池操作


它通常用于卷积神经网络后端的末端,以获得适用于密集层的形状。因此,无需进行展平。

如果您要查找有关caffe标志/参数的信息,最好在的注释中查找。
对于
“全局池”
参数:


有关caffe层的更多信息,请参阅。

卷积可以用于任何图像输入大小(足够大)。但是,如果您在末尾有一个完全连接的层,则该层需要固定的输入大小。因此,整个网络需要固定的图像输入大小

但是,您可以删除完全连接的层,只使用卷积层。您可以在末尾创建一个卷积层,该层的筛选器数与您的类数相同。但是,您希望每个类都有一个值,表示该类的概率。因此,您可以在完整的剩余功能上应用池筛选器重新映射。因此,此池是“全局”的,因为它总是尽可能大。相比之下,通常的池层具有固定的大小(例如2x2或3x3)


这是一个通用概念。你也可以在其他库中找到全局池,例如,如果你想在文献中找到一个好的参考,我建议你阅读。

当我们应用GP层时,我们从整个特征图中只得到一个值,其中内核大小是特征图的h×w。GP层用于减少三维空间的维度维度特征图。但是,GP层执行更极端类型的维度缩减,其中维度为h×w×d的特征图的尺寸缩减为1×1×d。GP层通过简单地取所有hw值的平均值,将每个h×w特征图缩减为一个数字。

谢谢您的回答,但不应该是3D吗1D,因此它只有1个输出?因为在层之间只有3D输出(至少在caffe中),第4/2个输出是样本数。假设我有一个卷积,它有以下输出维度:DxWxH:(250,15,15),那么我不太确定第四维应该是什么,sryIn tensorflow它是这样组织的(nrSamples,channel,width,height)。因此,宽度和深度会减小。在caffe中,似乎没有样本尺寸,所以它会从3D减小到1D。啊,这个问题与caffe直接相关,所以也许你可以更改你的答案,使其适合这个问题
// If global_pooling then it will pool over the size of the bottom by doing
// kernel_h = bottom->height and kernel_w = bottom->width