Python Onnx模型输入大小不同于Opencv帧大小

Python Onnx模型输入大小不同于Opencv帧大小,python,numpy,opencv,onnx,Python,Numpy,Opencv,Onnx,如何将OpenCV帧转换为适合我的ONNX模型的大小以接受它?目前,我的ONNX模型输入形状是[32,3,256,224],但当我使用OPENCV调整大小并打印img形状时,它是(224256,3)。分离通道,转换图像尺寸并将通道放在一起。您可以使用以下单行代码: np.array([np.transpose(img[:, :, 0]), np.transpose(img[:, :, 1]), np.transpose(img[:, :, 2])]) 例如: a = np.zeros((224

如何将OpenCV帧转换为适合我的ONNX模型的大小以接受它?目前,我的ONNX模型输入形状是[32,3,256,224],但当我使用OPENCV调整大小并打印img形状时,它是(224256,3)。

分离通道,转换图像尺寸并将通道放在一起。您可以使用以下单行代码:

np.array([np.transpose(img[:, :, 0]), np.transpose(img[:, :, 1]), np.transpose(img[:, :, 2])])
例如:

a = np.zeros((224,256, 3))
b = np.array([np.transpose(a[:, :, 0]), np.transpose(a[:, :, 1]), np.transpose(a[:, :, 2])])
b.shape #returns (3, 256, 224)

谢谢我一开始也在尝试类似的东西。我最终找到了一个更简单的方法。