Tensorflow 为什么对于未经培训的类别的图像,我会得到很高的预测分数?

Tensorflow 为什么对于未经培训的类别的图像,我会得到很高的预测分数?,tensorflow,deep-learning,conv-neural-network,image-recognition,convolutional-neural-network,Tensorflow,Deep Learning,Conv Neural Network,Image Recognition,Convolutional Neural Network,Im使用tensorflow进行图像分类,用于5个类别(5个汽车零件)。经过100个时代的训练后,在预测过程中,当我测试一个图像(它甚至看起来不像我训练过的任何一类图像)时,它与这5个类别中的一个匹配,得分超过98%。(我每个类别有1200张培训图片) (例如,我用方向盘、后视镜、车门、方向盘、前照灯训练了我的模型。我的测试图像是百合花。我的输出是99%的方向盘)为什么? 请参考我的代码中的参数 def imagerecog(features,labels,mode,params): input

Im使用tensorflow进行图像分类,用于5个类别(5个汽车零件)。经过100个时代的训练后,在预测过程中,当我测试一个图像(它甚至看起来不像我训练过的任何一类图像)时,它与这5个类别中的一个匹配,得分超过98%。(我每个类别有1200张培训图片) (例如,我用方向盘、后视镜、车门、方向盘、前照灯训练了我的模型。我的测试图像是百合花。我的输出是99%的方向盘)为什么? 请参考我的代码中的参数

def imagerecog(features,labels,mode,params):
input_layer = features["images"]
assert input_layer.shape[1:] == params['input_shape']
convs = []
pools = []
for i in range(params["conv_layers"]):
    if i == 0:
        convs.append(tf.layers.conv2d(inputs=input_layer,filters=params['filters'][i],
                                      kernel_size=params['kernel_size'],strides=[1,1],
                                      activation=tf.nn.relu,padding="same",name = "conv%d"%i))
    else:
        convs.append(tf.layers.conv2d(inputs=pools[i-1],filters=params['filters'][i],
                                      kernel_size=params['kernel_size'],strides=[1,1],
                                      activation=tf.nn.relu,padding="same",name = "conv%d"%i))
    pools.append(tf.layers.max_pooling2d(inputs=convs[i], pool_size=[2,2], strides=[2,2]))
flat = tf.layers.flatten(pools[-1])
dense1 = tf.layers.dense(inputs=flat, units=params["hidden_units"], name="dense1", activation=tf.nn.relu)
dropout = tf.layers.dropout(inputs=dense1, rate=params["drop_rate"] ,training=mode==tf.estimator.ModeKeys.TRAIN,
                            name="dropout")
logits = tf.layers.dense(inputs=dropout, units=params["n_classes"], name="logits")
probs = tf.nn.sigmoid(logits, name="probs")
top_5_scores, top_5_class = tf.nn.top_k(probs,  k=2, name="scores")

if mode == tf.estimator.ModeKeys.PREDICT:
    return tf.estimator.EstimatorSpec(mode=mode, predictions={"classes":top_5_class, "scores": top_5_scores})

loss = tf.losses.sparse_softmax_cross_entropy(labels=labels, logits=logits)

if mode == tf.estimator.ModeKeys.EVAL:
    acc = tf.metrics.accuracy(labels=labels,predictions=top_5_class[:,0])
    return tf.estimator.EstimatorSpec(mode=mode, loss=loss, eval_metric_ops={"accuracy": acc})

opt = tf.train.AdamOptimizer().minimize(loss, global_step=tf.train.get_global_step())

return tf.estimator.EstimatorSpec(mode=mode, loss=loss, train_op=opt)

def inp_fn(folder,image_size):
classes = os.listdir(folder)
def fn():
    images = []
    labels = []
    for i,cls in enumerate(classes):
        imgs = os.listdir(folder+"/"+cls)
        print(cls,i)
        for img in imgs:
            img = tf.image.decode_jpeg(tf.read_file(folder+"/"+cls+"/"+img),3,name="jpeg_decode")
            img = tf.image.rgb_to_grayscale(img)
            img = tf.image.resize_images(img,image_size)
            images.append(img)
            labels.append(i)
    return tf.data.Dataset.from_tensor_slices(({"images":images},labels)).batch(100)
return fn


params = {"input_shape":[200,300,1],
      "conv_layers": 3,
      "filters":[20,20,20],
      "kernel_size":[5,5],
      "hidden_units": 9000,
      "drop_rate":0.4,
      "n_classes":5}

epoch=100
for a in range(epoch):
print("Epoch=",a)
estim.train(inp_fn("train",params['input_shape'][:-1]))


def pred_inp_fn(folder,image_size):
def fn():
    files = os.listdir(folder)
    images = []
    for file in files:
        img = tf.image.decode_jpeg(tf.read_file(folder+"/"+file),3)
        img = tf.image.rgb_to_grayscale(img)
        img = tf.image.resize_images(img,image_size)
        images.append(img)
        return tf.data.Dataset.from_tensor_slices({"images":images}).batch(100)
return fn


results = estim.predict(pred_inp_fn("predict",params['input_shape'][:-1]))


for res in results:
print(res)

嗯,因为你没有接受过这一类的训练。这是神经网络(和其他一些ML技术)一直存在的问题,模型对不可见的输入类(在分类的情况下)的响应不是“默认”的均匀概率分布,而是不可预测的,通常是其中一类的强响应(可能是最常见的一个,但不一定)。如果你仔细想想,你所有的培训示例都100%属于一个类,因此该模型将倾向于给出答案,分数集中在一个类别中。我在文章中给出了两个备选方案,以替代“非其他类”模型你也可以研究其他类型的模型,比如,如果它们更适合你的需要。关键是你不能期望你的模型表现出一种没有明确训练过的行为。

你只训练了5门课的模型。所以你的模型就像一个婴儿何认为世界上只有五个物体,并试图将任何东西与其中一个物体联系起来:它认为最相似的物体

一种解决方案是在6个类而不是5个类上训练模型,其中第6个类是“未知”类,其中包括世界上任何其他对象(五个类除外)

您可以轻松收集第6节课的训练数据(它可以是除其他5节课以外的任何课程的图像)并训练您的模型