Python 咖啡馆里的畸形斑点
我正在使用以下协议:Python 咖啡馆里的畸形斑点,python,deep-learning,caffe,Python,Deep Learning,Caffe,我正在使用以下协议: layer { name: "pool2" type: "Pooling" bottom: "conv5" top: "pool2" pooling_param { pool: MAX kernel_w: 2 kernel_h: 1 stride_w: 2 stride_h: 1 pad_h: 0 pad_w: 0 } } 之前的水滴形状为1x64x1x30,之后的水滴形状为1x64x1x15
layer {
name: "pool2"
type: "Pooling"
bottom: "conv5"
top: "pool2"
pooling_param {
pool: MAX
kernel_w: 2
kernel_h: 1
stride_w: 2
stride_h: 1
pad_h: 0
pad_w: 0
}
}
之前的水滴形状为1x64x1x30,之后的水滴形状为1x64x1x15。它不应该是1x64x14吗
从caffe文件:
w_o = (w_i + 2*pad_w - kernel_w)/stride_w = (30 - 2)/2 = 14.
这是有意义的,因为池将是:[0,1][2,3][4,5]。。。[28,29]共有14个元素。一般来说,最大池层接受大小为W1 x H1 x D1的输入卷,需要两个超参数——步长(S)和内核大小(K)。它产生一个大小为W2 x H2 x D2的输出体积,其中W2=(W1-K)/S+1,H2=(H1-K)/S+1,D2=D1。通过简单的计算,内核大小为2,步长为2,输入将减半,从而验证了caffe的网络输出形状 通常,最大池层接受大小为W1 x H1 x D1的输入卷,需要两个超参数——步长(S)和内核大小(K)。它产生一个大小为W2 x H2 x D2的输出体积,其中W2=(W1-K)/S+1,H2=(H1-K)/S+1,D2=D1。通过简单的计算,内核大小为2,步长为2,输入将减半,从而验证了caffe的网络输出形状 最大池与步幅2,内核大小2将减半的投入。所以这是正确的。你可以在纸上画画,自己验证一下。等等,哈哈,我算错了。它是15。最大池与步幅2,内核大小2将减半的投入。所以这是正确的。你可以在纸上画画,自己验证一下。等等,哈哈,我算错了。它是15。为什么我们需要在公式中加1?为什么我们需要在公式中加1?