Python 咖啡馆里的畸形斑点

Python 咖啡馆里的畸形斑点,python,deep-learning,caffe,Python,Deep Learning,Caffe,我正在使用以下协议: layer { name: "pool2" type: "Pooling" bottom: "conv5" top: "pool2" pooling_param { pool: MAX kernel_w: 2 kernel_h: 1 stride_w: 2 stride_h: 1 pad_h: 0 pad_w: 0 } } 之前的水滴形状为1x64x1x30,之后的水滴形状为1x64x1x15

我正在使用以下协议:

layer {
  name: "pool2"
  type: "Pooling"
  bottom: "conv5"
  top: "pool2"
  pooling_param {
    pool: MAX
    kernel_w: 2
    kernel_h: 1
    stride_w: 2
    stride_h: 1
    pad_h: 0
    pad_w: 0
  }
}
之前的水滴形状为1x64x1x30,之后的水滴形状为1x64x1x15。它不应该是1x64x14吗

从caffe文件:

w_o = (w_i + 2*pad_w - kernel_w)/stride_w = (30 - 2)/2 = 14.

这是有意义的,因为池将是:[0,1][2,3][4,5]。。。[28,29]共有14个元素。

一般来说,最大池层接受大小为W1 x H1 x D1的输入卷,需要两个超参数——步长(S)和内核大小(K)。它产生一个大小为W2 x H2 x D2的输出体积,其中W2=(W1-K)/S+1,H2=(H1-K)/S+1,D2=D1。通过简单的计算,内核大小为2,步长为2,输入将减半,从而验证了caffe的网络输出形状

通常,最大池层接受大小为W1 x H1 x D1的输入卷,需要两个超参数——步长(S)和内核大小(K)。它产生一个大小为W2 x H2 x D2的输出体积,其中W2=(W1-K)/S+1,H2=(H1-K)/S+1,D2=D1。通过简单的计算,内核大小为2,步长为2,输入将减半,从而验证了caffe的网络输出形状

最大池与步幅2,内核大小2将减半的投入。所以这是正确的。你可以在纸上画画,自己验证一下。等等,哈哈,我算错了。它是15。最大池与步幅2,内核大小2将减半的投入。所以这是正确的。你可以在纸上画画,自己验证一下。等等,哈哈,我算错了。它是15。为什么我们需要在公式中加1?为什么我们需要在公式中加1?