Tensorflow 了解二维卷积输出大小
我是卷积DL的初学者。我在论文中看到了以下架构:对于256*256大小的图像, 我不明白第一个2D卷积的输出大小:96*54*54。96看起来很好,因为过滤器的数量是96。但是,如果我们对输出大小应用以下公式:Tensorflow 了解二维卷积输出大小,tensorflow,machine-learning,deep-learning,conv-neural-network,convolution,Tensorflow,Machine Learning,Deep Learning,Conv Neural Network,Convolution,我是卷积DL的初学者。我在论文中看到了以下架构:对于256*256大小的图像, 我不明白第一个2D卷积的输出大小:96*54*54。96看起来很好,因为过滤器的数量是96。但是,如果我们对输出大小应用以下公式:size=[(W−K+2P)/S]+1=[(256-11+2*0)/4]+1=62.25~62。我假设padding,P为0,因为本文中没有提到它。Keras Conv2D API产生相同的96*62*62大小的输出。那么,为什么纸张指向96*54*54?我遗漏了什么?好吧,它提醒了我哪
size=[(W−K+2P)/S]+1
=[(256-11+2*0)/4]+1=62.25~62。我假设padding,P为0,因为本文中没有提到它。Keras Conv2D API产生相同的96*62*62大小的输出。那么,为什么纸张指向96*54*54?我遗漏了什么?好吧,它提醒了我哪里有类似的错误。你的计算是正确的。我认为他们错误地写了256x256而不是224x224,在这种情况下,输入层的计算是
(224-11+2*0)/4+1=54.25~54
很可能是作者错误地编写了256x256而不是真正的体系结构输入大小224x224(AlexNet也是如此),或者另一个不太可能的选择是他们编写了256x256,这是真正的体系结构输入大小,但对224x224进行了计算。后者是可以忽略的,因为我认为这是一个非常愚蠢的错误,我甚至不认为这是一个选择
因此,我认为真正的输入大小是224x224,而不是256x256。似乎是唯一可能的解释。谢谢不过,如果有什么事情发生,我会把这个问题公之于众。