Tensorflow 建议一些有用的技术来减小CNN架构的大小?

Tensorflow 建议一些有用的技术来减小CNN架构的大小?,tensorflow,neural-network,keras,deep-learning,convolutional-neural-network,Tensorflow,Neural Network,Keras,Deep Learning,Convolutional Neural Network,背景:我将开始训练CNN对数据集进行分类。这个CNN必须部署在真实世界的应用程序中。所以通过CNN的正向传播必须是快速的。我读过的大多数CNN架构没有GPU就无法运行,需要部署大量昂贵的资源 问题: 现在我知道了一种特别的技术,它对于减少CNN架构的大小非常有用:使用立方插值缩小图像(立方插值有助于改善某些图像特征,如边缘)。这有助于减少卷积层的数量以及滤波器的大小,从而将CNN中的总体参数减少相当多。我想知道是否有其他技术可以使CNN变小,从而可以实际部署。二值化技术是一种有效的算法,允许约束

背景:我将开始训练CNN对数据集进行分类。这个CNN必须部署在真实世界的应用程序中。所以通过CNN的正向传播必须是快速的。我读过的大多数CNN架构没有GPU就无法运行,需要部署大量昂贵的资源

问题:
现在我知道了一种特别的技术,它对于减少CNN架构的大小非常有用:使用立方插值缩小图像(立方插值有助于改善某些图像特征,如边缘)。这有助于减少卷积层的数量以及滤波器的大小,从而将CNN中的总体参数减少相当多。我想知道是否有其他技术可以使CNN变小,从而可以实际部署。

二值化技术是一种有效的算法,允许约束网络的参数和激活,使其具有二进制值。显然,精度损失可能会降低最终性能,但二进制表示大大降低了网络的资源需求

例如,你可以看看这些作品:

发布了他们的代码