Neural network caffe挤压网:prototxt中完全连接的FC层在哪里

Neural network caffe挤压网:prototxt中完全连接的FC层在哪里,neural-network,deep-learning,caffe,conv-neural-network,pycaffe,Neural Network,Deep Learning,Caffe,Conv Neural Network,Pycaffe,我正在制作caffe挤压网 我只是想知道FC层在哪里?(我只看到类型:data、conv、relu、pooling、concat、SoftmaxWithLoss和Accurance)原因是FC层有大量参数,在某些架构中占网络参数的大部分。SqueezeNet的作者删除了FCs,代之以卷积层和全局平均池 conv层有一个与类数量相等的过滤器,将前一层的输出处理为(大致)每个类的映射。池平均每个映射的响应。它们最终得到一个平坦的向量,其维数等于类的数量,然后馈送到SoftMax层 通过这些修改(不要

我正在制作caffe挤压网


我只是想知道FC层在哪里?(我只看到类型:data、conv、relu、pooling、concat、SoftmaxWithLoss和Accurance)

原因是FC层有大量参数,在某些架构中占网络参数的大部分。SqueezeNet的作者删除了FCs,代之以卷积层和全局平均池

conv层有一个与类数量相等的过滤器,将前一层的输出处理为(大致)每个类的映射。池平均每个映射的响应。它们最终得到一个平坦的向量,其维数等于类的数量,然后馈送到SoftMax层

通过这些修改(不要忘记他们提出的Fire模块),他们能够显著减少内存占用


我强烈建议您阅读。

SqueezeNet没有完全连接的层,它使用全局平均池