Computer vision 将可变大小的输入传递到Pytorch中的线性层

Computer vision 将可变大小的输入传递到Pytorch中的线性层,computer-vision,conv-neural-network,pytorch,Computer Vision,Conv Neural Network,Pytorch,我在Pytorch中有一个Linear()层,在几个Conv()层之后。我的数据集中的所有图像都是黑白的。但是,测试集中的大多数图像与训练集中的图像具有不同的维度。除了调整图像本身的大小外,是否有任何方法来定义Linear()层,使其采用可变的输入维度?例如,类似于视图(-1)的内容,使用具有可变输入大小的Linear()层是没有意义的。因为实际上它是一个可学习的形状矩阵[n_in,n_out]。如果输入的特征尺寸!=纽因 您可以做的是从函数API应用。您需要指定kernel\u size和st

我在Pytorch中有一个
Linear()
层,在几个
Conv()层之后。我的数据集中的所有图像都是黑白的。但是,测试集中的大多数图像与训练集中的图像具有不同的维度。除了调整图像本身的大小外,是否有任何方法来定义
Linear()
层,使其采用可变的输入维度?例如,类似于
视图(-1)

的内容,使用具有可变输入大小的
Linear()
层是没有意义的。因为实际上它是一个可学习的形状矩阵[n_in,n_out]。如果输入的特征尺寸!=纽因


您可以做的是从函数API应用。您需要指定
kernel\u size
stride
,以便生成的输出将具有特征尺寸size=n\u in.

在传入
torch.nn.Linear()
层之前,您必须预处理图像数组。我认为没有办法按照您的意愿传递任何外部参数。