tensorflow中不同步长的级联卷积

tensorflow中不同步长的级联卷积,tensorflow,concatenation,conv-neural-network,convolution,Tensorflow,Concatenation,Conv Neural Network,Convolution,我试图用tensoflow从一篇研究论文中复制一个CNN。这是CNN的整体架构,但我主要关注的是一部分的缩减 我想知道我是否发现了这篇研究论文的问题。正如您在简化图A中所看到的,连接了3个层。但是,其中两个层使用2的步幅。因此,当沿着第四轴(通道数)连接张量时,最右边的层与其他两层的深度、宽度和高度不同。我知道我可以用填充物来解决这个问题,但报纸上没有提到这一点你认为这篇研究论文有错误吗?最右边的减少A的路径是否也应该使用2的步幅?考虑到所有其他减少和增加都有匹配的步幅,这篇论文似乎犯了一个错

我试图用tensoflow从一篇研究论文中复制一个CNN。这是CNN的整体架构,但我主要关注的是一部分的缩减


我想知道我是否发现了这篇研究论文的问题。正如您在简化图A中所看到的,连接了3个层。但是,其中两个层使用2的步幅。因此,当沿着第四轴(通道数)连接张量时,最右边的层与其他两层的深度、宽度和高度不同。我知道我可以用填充物来解决这个问题,但报纸上没有提到这一点你认为这篇研究论文有错误吗?最右边的减少A的路径是否也应该使用2的步幅?

考虑到所有其他减少和增加都有匹配的步幅,这篇论文似乎犯了一个错误。我想3x3(384)卷积应该有2的步长,因为这种卷积增加了通道大小。

谢谢!如果您有时间,请您解释一下“2x”、“4x”、“8x”和“16x”在deconvolutions@DevinHaslam这些数字对应于输入分辨率(MxN)和相应块后由于步幅而降低的分辨率之间的分辨率差。然而,我无法仅从这些图片中分辨出这些反褶积是什么样子,但是这些数字等于必须通过反褶积“恢复”的分辨率。因此,当我执行2x反褶积时,我从(?,16,16,4,192)形状的张量开始;这表示(批次、宽度、深度、高度、通道)。然而,我仍然需要找出一个5d滤波器(深度、宽度、高度、通道内、通道外)和一个1d输出形状。研究论文没有提到这些价值观中的任何一个。知道反褶积是“2x”信息是否足以导出滤波器和输出形状?再次感谢,我非常感谢您的帮助。@DevinHaslam图片中没有足够的信息来说明反卷积滤波器的大小或输出通道的数量。我已经研究这个问题很长时间了。我并不真正理解转置反褶积背后的算法。对不起,如果我要求太多,你介意看看这个问题吗?已经一个星期没人接了。谢谢,如果你不回答,我理解。