Tensorflow 为什么Gramian矩阵适用于VGG16,但不适用于EfficientNet或MobileNet?
使用在ImageNet上训练的VGG16分类网络的中间特征向量。当时,这可能是一个不错的选择,因为VGG16是性能最好的分类之一。如今,有更高效的分类网络在分类性能上超过VGG,同时需要更少的参数和触发器,例如EfficientNet和MobileNetv2 但当我在实践中尝试这一点时,VGG16特征的Gramian矩阵似乎代表了图像样式,因为其对于风格相似图像的L2距离小于对于风格无关图像的L2距离。对于根据EfficientNet和MobileNetv2功能计算的Gramian矩阵,情况似乎并非如此。非常相似的图像之间和非常不相似的图像之间的L2距离仅变化约5%Tensorflow 为什么Gramian矩阵适用于VGG16,但不适用于EfficientNet或MobileNet?,tensorflow,deep-learning,vgg-net,style-transfer,efficientnet,Tensorflow,Deep Learning,Vgg Net,Style Transfer,Efficientnet,使用在ImageNet上训练的VGG16分类网络的中间特征向量。当时,这可能是一个不错的选择,因为VGG16是性能最好的分类之一。如今,有更高效的分类网络在分类性能上超过VGG,同时需要更少的参数和触发器,例如EfficientNet和MobileNetv2 但当我在实践中尝试这一点时,VGG16特征的Gramian矩阵似乎代表了图像样式,因为其对于风格相似图像的L2距离小于对于风格无关图像的L2距离。对于根据EfficientNet和MobileNetv2功能计算的Gramian矩阵,情况似乎
从网络结构来看,VGG、EfficientNet和MobileNet都有卷积,它们之间有批量规范化和ReLU,因此构建块是相同的。那么,哪种设计决策是VGG独有的,这样它的Gramian矩阵就能捕捉到这种风格,而EfficientNet和MobileNet则不然?到目前为止,我发现:Gramian矩阵需要部分相关的功能才能正常工作。较新的网络使用脱落正则化器进行训练,这将减少特征间的相关性。到目前为止,我发现:Gramian矩阵需要部分相关特征才能正常工作。较新的网络使用脱落正则化器进行训练,这将减少特征间的相关性