Python 3.x 如何将cv2.imread与keras image.img_加载输出匹配

Python 3.x 如何将cv2.imread与keras image.img_加载输出匹配,python-3.x,numpy,opencv,image-processing,keras,Python 3.x,Numpy,Opencv,Image Processing,Keras,我在学习深度学习。训练了一种图像分类算法。然而,问题是,为了训练我使用的图像: test_image = image.load_img('some.png', target_size = (64, 64)) test_image = image.img_to_array(test_image) 而对于实际应用,我使用: test_image = cv2.imread('trick.png') test_image = cv2.resize(test_image, (64, 64)) 但我发现

我在学习深度学习。训练了一种图像分类算法。然而,问题是,为了训练我使用的图像:

test_image = image.load_img('some.png', target_size = (64, 64))
test_image = image.img_to_array(test_image)
而对于实际应用,我使用:

test_image = cv2.imread('trick.png')
test_image = cv2.resize(test_image, (64, 64))
但我发现这些给出了不同的数据:

load_图像中的最后条目:

  [ 64.  71.  66.]
  [ 64.  71.  66.]
  [ 62.  69.  67.]]]
cv2.imread的最后条目:

  [ 15  23  27]
  [ 16  24  28]
  [ 14  24  28]]]

,因此系统不工作。是否有一种方法可以将一个结果与另一个结果进行匹配?

OpenCV以BGR格式读取图像,而在keras中,它以RGB表示。要使OpenCV版本符合我们期望的顺序(RGB),只需反转通道:

test_image = cv2.imread('trick.png')
test_image = cv2.resize(test_image, (64, 64))
test_image = test_image[...,::-1] # Added
最后一行将通道反转为RGB顺序。然后可以将其输入到keras模型中

我想补充的另一点是,
cv2.imread
通常以
uint8
精度读取图像。检查keras加载图像的输出,可以看到数据是浮点精度的,因此您可能还希望转换为浮点表示,例如
float32

import numpy as np
# ...
# ...
test_image = test_image[...,::-1].astype(np.float32)
最后,根据您训练模型的方式,通常会将图像像素值规格化为
[0,1]
范围。如果使用keras模型执行此操作,请确保在通过OpenCV读取的图像中将值除以255:

import numpy as np
# ...
# ...
test_image = (test_image[...,::-1].astype(np.float32)) / 255.0

除了使用BGR格式的CV2和使用RGB格式的Keras(使用PIL作为后端)之外,使用相同参数的CV2和PIL的调整大小方法也存在显著差异

可以在互联网上找到多个参考文献,但总体思路是,两种调整大小算法中使用的像素坐标系存在细微差异,并且作为插值算法的中间步骤,使用不同的铸造浮动方法也可能存在潜在问题。最终的结果是一个视觉上相似的图像,但在不同版本之间有轻微的移动/扰动


这是一个完美的对抗性攻击的例子,尽管输入差异很小,但仍会导致精度上的巨大差异。

最近,我遇到了同样的问题。我尝试使用OpenCV转换颜色通道并调整图像大小。然而,PIL和OpenCV有非常不同的图像大小调整方法。 这是这个问题的确切解决办法

这是一个函数,用于获取图像文件路径,转换为目标大小,并为Keras模型做准备-

import cv2
import keras
import numpy as np
from keras.preprocessing import image
from PIL import Image

def prepare_image (file):
    im_resized = image.load_img(file, target_size = (224,224))
    img_array = image.img_to_array(im_resized)
    image_array_expanded = np.expand_dims(img_array, axis = 0)
    return keras.applications.mobilenet.preprocess_input(image_array_expanded)

# execute the function
PIL_image = prepare_image ("lena.png")
如果您有一个OpenCV图像,那么函数将如下所示-

def prepare_image2 (img):
    # convert the color from BGR to RGB then convert to PIL array
    cvt_image =  cv2.cvtColor(img, cv2.COLOR_BGR2RGB)
    im_pil = Image.fromarray(cvt_image)

    # resize the array (image) then PIL image
    im_resized = im_pil.resize((224, 224))
    img_array = image.img_to_array(im_resized)
    image_array_expanded = np.expand_dims(img_array, axis = 0)
    return keras.applications.mobilenet.preprocess_input(image_array_expanded)

# execute the function
img = cv2.imread("lena.png")
cv2_image = prepare_image2 (img)

# finally check if it is working  
np.array_equal(PIL_image, cv2_image)
>> True

怎么不一样?不同的形状,数据?@nuric UD更新的问题
image.load\u img()
使用
PIL
读入
RGB
,而
cv2.imread()
读入
BGR
。这是唯一的区别。@JeruLuke:D我以前从未听过这种说法。我听过的最接近鸟类的用法,但芒果也可以:)是的,因为你使用的是预训练网络,所以你需要使用它们的预处理方法。还请注意,您使用的是MobileNet V2。你应该扩展你的答案,把它推广到任何预先训练过的网络。