Tensorflow GoogLeNet Inception v4与论文不同?
论文: 代码:Tensorflow GoogLeNet Inception v4与论文不同?,tensorflow,Tensorflow,论文: 代码: 第91行: branch_2 = slim.conv2d(branch_2, 224, [7, 1], scope='Conv2d_0d_7x1') 文中为[1,7] 第216行: branch_0 = slim.conv2d(net, 192, [3, 3], stride=2, padding='VALID', 在papter步幅不等于2时,这是一个轻微的不匹配: branch_2 = slim.conv2d(branch_2, 224, [7, 1], sc
第91行:
branch_2 = slim.conv2d(branch_2, 224, [7, 1], scope='Conv2d_0d_7x1')
文中为[1,7]
第216行:
branch_0 = slim.conv2d(net, 192, [3, 3], stride=2, padding='VALID',
在papter步幅不等于2时,这是一个轻微的不匹配:
branch_2 = slim.conv2d(branch_2, 224, [7, 1], scope='Conv2d_0d_7x1')
它不是使用卷积序列{[1,7],[7,1],[1,7],[7,1]},而是使用{[7,1],[1,7],[7,1],[1,7]}。如果它对准确性有影响,我会感到惊讶,但可能仍然值得在github上创建一个问题
关于第二个问题:
branch_0 = slim.conv2d(net, 192, [3, 3], stride=2, padding='VALID',
他们显然忘记或省略了(为了更好地理解)插图上的大步。该层应该会降低空间分辨率,因为它以71x71x192作为输入,并产生35x35的输出。这是一个较小的不匹配:
branch_2 = slim.conv2d(branch_2, 224, [7, 1], scope='Conv2d_0d_7x1')
它不是使用卷积序列{[1,7],[7,1],[1,7],[7,1]},而是使用{[7,1],[1,7],[7,1],[1,7]}。如果它对准确性有影响,我会感到惊讶,但可能仍然值得在github上创建一个问题
关于第二个问题:
branch_0 = slim.conv2d(net, 192, [3, 3], stride=2, padding='VALID',
他们显然忘记或省略了(为了更好地理解)插图上的大步。该层应该会降低空间分辨率,因为它采用71x71x192作为输入,并产生35x35的输出。谢谢您的回答。第86行似乎真的错了,在论文中是[1,7]@YoonPer卷积对[7,1][1,7]是一个优化技巧,它减少了完整[7,7]conv的参数数量。前2行有2*(7*1+1)对1*(7*7+1)。从这个角度看,哪一个先到并不重要,只要你先用两个,我知道这一点,但在图5的文章中,分支3,是一对卷积[1,7][1,7],代码是[1,7][7,1],我不知道是谁的错。对,不应该是这样的。插图一定是错的。谢谢你的回答。第86行似乎真的错了,在论文中是[1,7]@YoonPer卷积对[7,1][1,7]是一个优化技巧,它减少了完整[7,7]conv的参数数量。前2行有2*(7*1+1)对1*(7*7+1)。从这个角度看,哪一个先到并不重要,只要你先用两个,我知道这一点,但在图5的文章中,分支3,是一对卷积[1,7][1,7],代码是[1,7][7,1],我不知道是谁的错。对,不应该是这样的。插图一定是错的