Deep learning MobileNet V3如何比V2快?

Deep learning MobileNet V3如何比V2快?,deep-learning,mobilenet,Deep Learning,Mobilenet,以下是有关MobileNet V3的文章链接 根据本文,h-swish和挤压与激励模块在MobileNet V3中实现,但它们旨在提高精度,但无助于提高速度 h-swish比swish快,有助于提高准确性,但如果我没有弄错的话,它比ReLU慢得多 SE也有助于提高精度,但它增加了网络参数的数量 我错过什么了吗?我仍然不知道在V3中实现上述内容后,MobileNet V3如何能比V2更快 我没有提到他们还修改了网络的最后一部分,因为我计划使用MobileNet V3作为主干网络,并将其与SSD层

以下是有关MobileNet V3的文章链接

根据本文,h-swish和挤压与激励模块在MobileNet V3中实现,但它们旨在提高精度,但无助于提高速度

h-swish比swish快,有助于提高准确性,但如果我没有弄错的话,它比ReLU慢得多

SE也有助于提高精度,但它增加了网络参数的数量

我错过什么了吗?我仍然不知道在V3中实现上述内容后,MobileNet V3如何能比V2更快

我没有提到他们还修改了网络的最后一部分,因为我计划使用MobileNet V3作为主干网络,并将其与SSD层结合用于检测目的,因此不会使用网络的最后一部分

下表(可以在上面提到的论文中找到)表明V3仍然比V2快


在分类任务上,MobileNetV3比MobileNetV2更快、更准确,但在不同的任务(如目标检测)上不一定如此。 正如您所提到的,他们在网络最深处所做的优化主要与分类变量有关,从您引用的表中可以看出,地图也没有更好的地方

虽然很少有需要考虑的事情:

  • 的确,SE和h-swish都会让网络慢一点。她补充道 一些触发器和参数,h-swish增加了复杂性,两者都有 导致一些延迟。但是,添加这两个选项后 准确度-延迟权衡更好,这意味着 加法值精度增益,或者您可以保持不变 准确性,同时减少其他内容,从而减少总体延迟。 特别是关于h-swish,请注意,他们主要在 更深层,张量更小。它们比较厚,但是 由于分辨率的二次下降(高度x宽度),它们是 整体更小,因此h-swish导致更少的延迟
  • 搜索架构本身(没有h-swish,甚至没有考虑SE)。这意味着它比“香草”MobileNet v2更适合于任务,因为该体系结构“不太手工设计”,并且实际上针对任务进行了优化。例如,您可以看到,在MNASNet中,一些内核增长到5x5(而不是3x3),并非所有扩展速率都是x6,等等
  • 他们对网络最深处所做的一个改变也与目标检测有关。奇怪的是,在使用SSDLite-mobilenetw2时,最初的作者选择保留最后的1x1卷积,该卷积从320深度扩展到1280深度。虽然这类特征对于1000类分类是有意义的,但是对于80类检测,它可能是冗余的,因为MNV3的作者在第7页的中间(第二列的第一列的底部)表示自己。李>
是的,在MNv3 small的情况下,地图并没有更好甚至更差,但根据表格,速度提高了很多,所以我对原因很感兴趣。我目前正在尝试使用MNv3 small,并希望将SSD层连接到它,并与MNv1 SSD进行比较,以实现我自己的检测目的。我目前正在使用MNv1 SSD执行任务,并希望用新的主干网络替换主干网络。我选择从MNv3小版开始,而不是从MNv3大版开始,因为尽管精度有所下降,但速度要快得多。