Tensorflow 为什么MobileNetV2仅在移动设备上比MobileNetV1快?

Tensorflow 为什么MobileNetV2仅在移动设备上比MobileNetV1快?,tensorflow,mobile,gpu,Tensorflow,Mobile,Gpu,我正在研究谷歌的全新mobilenetw2架构 在学习期间,我在Tensorflow模型中心读过这个字符串 例如,Mobilenet V2在移动设备上比Mobilenet V1快,但在桌面GPU上稍慢 所以我的问题是, 这怎么可能呢?我很想知道原因。从他们在 在第5小题:实施说明,5.1下。记忆有效推理 倒置的剩余瓶颈层允许特别的 内存高效的实现,这是非常重要的 对于移动应用程序非常重要。(还有更多文章) 据TensorFlow团队称,它经过优化,尺寸更小,也可以用作TF-Lite。据我们所知,

我正在研究谷歌的全新
mobilenetw2
架构

在学习期间,我在Tensorflow模型中心读过这个字符串

例如,Mobilenet V2在移动设备上比Mobilenet V1快,但在桌面GPU上稍慢

所以我的问题是,


这怎么可能呢?我很想知道原因。

从他们在

在第5小题:实施说明,5.1下。记忆有效推理

倒置的剩余瓶颈层允许特别的 内存高效的实现,这是非常重要的 对于移动应用程序非常重要。(还有更多文章)

据TensorFlow团队称,它经过优化,尺寸更小,也可以用作TF-Lite。据我们所知,TF Lite确实是用于移动用途的。桌面GPU上的速度要慢得多。与V1相比,V2可能有更多的conv层,如果训练需要花费更多的时间来完成,这是有意义的。目前,我们没有在移动设备上进行数据的训练和推断,因为计算速度不足也会导致功率不足

希望我能回答这个问题。

来自:


“然而,MobileNet V2使用了GPU固件(cuDNN库)不直接支持的深度可分离卷积。因此,在大多数实验设置中,MobileNet V2往往比ResNet18慢。请注意,同样的问题使DenseNet架构的使用不合格[12],因为它需要在非连续张量上进行有效卷积,这在cuDNN中仍然不受支持。”

它的设计和调试可能是考虑到了移动体验。谢谢!但是,有什么确切的解释吗??:(不可能你能读到这篇文章。这是。我已经读过这篇文章,但没有说明原因。我不是花花公子兄弟。谢谢。我真的可以理解:)但是V1也使用了深度可分卷积。@XiaXuehai,有两个因素可能导致这种情况:1)MobileNetV1有13个深度可分离卷积,而MobileNetV2有17个。2) MobileNetV1使用64/12/256/512/1024通道进行深度卷积,而MobileNetV2使用96/192/384/768/1536通道。因此,MobileNetV2在GPU上可能比V1慢。在这种情况下,由于通道减少(瓶颈),在CPU上,MobileNet V2将比V1更快。在V2中,1x1 conv中的通道数除以6。在V2中,只有深度卷积使用如此多的通道,而不是1x1 conv。