Python 如何解决在pytorch中加载预训练模型时的尺寸不匹配问题?

Python 如何解决在pytorch中加载预训练模型时的尺寸不匹配问题?,python,deep-learning,pytorch,conv-neural-network,transfer-learning,Python,Deep Learning,Pytorch,Conv Neural Network,Transfer Learning,我正在尝试将一个conv层的过滤器(通道)数量为64的预训练模型加载到一个conv层中过滤器数量为128的模型中。我使用new\u network.load\u state\u dict(pretrained\u model,strict=False)但我面临所有层的大小不匹配错误。 如何使用可用的预训练模型权重初始化每个conv层中的某些过滤器 我认为这是不可能的,一层的重量在很大程度上取决于它的通道数。可能的方法(取决于您的需求)是在预训练模型架构之后添加额外的卷积层,并对原始层使用预训练权

我正在尝试将一个conv层的过滤器(通道)数量为
64
的预训练模型加载到一个conv层中过滤器数量为
128
的模型中。我使用
new\u network.load\u state\u dict(pretrained\u model,strict=False)
但我面临所有层的大小不匹配错误。
如何使用可用的预训练模型权重初始化每个conv层中的某些过滤器

我认为这是不可能的,一层的重量在很大程度上取决于它的通道数。可能的方法(取决于您的需求)是在预训练模型架构之后添加额外的卷积层,并对原始层使用预训练权重,因此本质上是转移学习。我不认为这是可能的,层的权重在很大程度上取决于其通道数。可能的情况是(根据您的需求),在预训练模型架构之后添加额外的卷积层,并对原始层使用预训练权重,因此本质上是转移学习。