Machine learning 全局平均池(GAP)之前VGG16中的最大池数?

Machine learning 全局平均池(GAP)之前VGG16中的最大池数?,machine-learning,pytorch,vgg-net,torchvision,Machine Learning,Pytorch,Vgg Net,Torchvision,我目前正在使用VGG16,在最终分类层之前使用全局平均池(GAP)。使用的VGG16型号是torchvision提供的型号 但是,我注意到在间隙层之前,有一个最大池层。这可以吗?还是应该在间隙层之前移除最大池层?网络架构如下所示 VGG( (features): Sequential( (0): Conv2d(3, 64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1)) (1): ReLU(inplace=True)

我目前正在使用VGG16,在最终分类层之前使用全局平均池(GAP)。使用的VGG16型号是torchvision提供的型号

但是,我注意到在间隙层之前,有一个最大池层。这可以吗?还是应该在间隙层之前移除最大池层?网络架构如下所示

VGG(
  (features): Sequential(
    (0): Conv2d(3, 64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
    (1): ReLU(inplace=True)
    (2): Conv2d(64, 64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
    (3): ReLU(inplace=True)
    (4): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False)
    (5): Conv2d(64, 128, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
    (6): ReLU(inplace=True)
    (7): Conv2d(128, 128, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
    (8): ReLU(inplace=True)
    (9): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False)
    (10): Conv2d(128, 256, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
    (11): ReLU(inplace=True)
    (12): Conv2d(256, 256, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
    (13): ReLU(inplace=True)
    (14): Conv2d(256, 256, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
    (15): ReLU(inplace=True)
    (16): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False)
    (17): Conv2d(256, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
    (18): ReLU(inplace=True)
    (19): Conv2d(512, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
    (20): ReLU(inplace=True)
    (21): Conv2d(512, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
    (22): ReLU(inplace=True)
    (23): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False)
    (24): Conv2d(512, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
    (25): ReLU(inplace=True)
    (26): Conv2d(512, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
    (27): ReLU(inplace=True)
    (28): Conv2d(512, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
    (29): ReLU(inplace=True)
    (30): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False)
  )
  (avgpool): AdaptiveAvgPool2d(output_size=1)   #GAP Layer
  (classifier): Sequential(
    (0): Linear(in_features=512, out_features=7, bias=True)
  )
)

提前感谢。

如果您要培训分类器,应该可以。尽管如此,我无论如何都不会删除它


值得一提的是,最大池是原始体系结构的一部分,如原始文件的表1所示:。

Ah好吧。我看到最大池确实是原始体系结构的一部分,因此我对如何在修改中处理它感到困惑。谢谢你的回答@Berriel