Tensorflow:当我加载保存的模型并使用predict时,它会产生非常糟糕的结果。为什么?(I';m使用估计器API)

Tensorflow:当我加载保存的模型并使用predict时,它会产生非常糟糕的结果。为什么?(I';m使用估计器API),tensorflow,tensorflow-serving,tensorflow-estimator,Tensorflow,Tensorflow Serving,Tensorflow Estimator,我正在使用估计器API来训练CNN,它可以对形状的图像进行分类 我能够使用自定义输入_fn()成功地训练CNN,该输入从tfrecord文件训练。然后我可以使用model.predict(predict\u input\u fn)进行预测。几次之后的准确率>80%,然后在一些测试数据上使用model.predict()时。我也得到了80%以上。所以这似乎很有效 我想保存模型,然后加载模型并使用它进行预测,因为这就是我的目标。所以基本上是推断。当我这样做并根据我的测试数据进行预测时,我得到了糟糕的

我正在使用估计器API来训练CNN,它可以对形状的图像进行分类

我能够使用自定义输入_fn()成功地训练CNN,该输入从tfrecord文件训练。然后我可以使用model.predict(predict\u input\u fn)进行预测。几次之后的准确率>80%,然后在一些测试数据上使用model.predict()时。我也得到了80%以上。所以这似乎很有效

我想保存模型,然后加载模型并使用它进行预测,因为这就是我的目标。所以基本上是推断。当我这样做并根据我的测试数据进行预测时,我得到了糟糕的结果。我已经从我的输入中去掉了所有的预处理并重新培训。所以我在预测时基本上是在传递原始数据。问题依然存在。我想知道为什么会发生这种情况,或者我是否做错了什么。谢谢你的见解

我将链接相关代码 我的模特

def model_fn(features, labels, mode, params):

    x = features['image_raw']  
    net = tf.reshape(x, [-1, 824, 463, num_channels])
    net = tf.layers.conv2d(inputs=net, name='layer_conv1',
                           filters=32, kernel_size=11, strides=4,
                           padding='same', activation=tf.nn.relu)
    net = tf.layers.conv2d(inputs=net, name='layer_conv2',
                           filters=32, kernel_size=11, strides=4,
                           padding='same', activation=tf.nn.relu)
    net = tf.layers.conv2d(inputs=net, name='layer_conv3',
                           filters=32, kernel_size=5, strides=2,
                           padding='same', activation=tf.nn.relu)
    net = tf.layers.max_pooling2d(inputs=net, pool_size=2, strides=2,padding='SAME')    
    net = tf.layers.conv2d(inputs=net, name='layer_conv4',
                           filters=32, kernel_size=3,
                           padding='same', activation=tf.nn.relu)
    net = tf.contrib.layers.flatten(net)
    net = tf.layers.dense(inputs=net, name='layer_fc1',
                          units=256, activation=tf.nn.relu)
    net = tf.nn.dropout(net, 0.5)
    net = tf.layers.dense(inputs=net, name='layer_fc_2',
                          units=num_classes)
    logits = net
    y_pred = tf.nn.softmax(logits=logits)
    y_pred_cls = tf.argmax(y_pred, axis=1)
    if mode == tf.estimator.ModeKeys.PREDICT:
        export_outputs = {'classes': tf.estimator.export.PredictOutput({"classes": y_pred_cls})}

        spec = tf.estimator.EstimatorSpec(mode=mode,predictions=y_pred_cls,export_outputs=export_outputs)
    else:

        cross_entropy = tf.nn.sparse_softmax_cross_entropy_with_logits(labels=labels,logits=logits)

        loss = tf.reduce_mean(cross_entropy)

        optimizer = tf.train.AdamOptimizer(learning_rate=0.001,beta1=0.9,beta2=0.999,epsilon=1e-8,name="Adam")

        train_op = optimizer.minimize(loss=loss, global_step=tf.train.get_global_step())

        metrics = {"accuracy": tf.metrics.accuracy(labels, y_pred_cls)}     
        # Wrap all of this in an EstimatorSpec.
        spec = tf.estimator.EstimatorSpec(
            mode=mode,
            loss=loss,
            train_op=train_op,
            eval_metric_ops=metrics
            )      
    return spec
我的服务职能:

def serving_input_receiver_fn(): 
  inputs = {"image_raw": tf.placeholder(shape=[824, 463], dtype=tf.float32)}
  return tf.estimator.export.ServingInputReceiver(inputs, inputs)
如何保存经过培训的模型:

export_dir = model.export_savedmodel(
    export_dir_base="./saved_model/",
    serving_input_receiver_fn=serving_input_receiver_fn,
    as_text=True) 
如何从保存的模型预测:

from tensorflow.contrib import predictor
predict_fn = predictor.from_saved_model('./saved_model/1518601120/')
a = np.ones(shape=(824,463),dtype=np.float32)    
image = Image.open((os.path.join(prediction_dir,subdir,file)))
image = np.array(image)
image=image.swapaxes(0,1)
a[:,:]=image[:,:,0]  #The input is an RGBa PNG. only 1 channel is populated #with data from our shape.
prediction = predict_fn({"image_raw": a})
predictions.append((prediction['classes'][0]))

结果是我传递了预测函数,一个高度宽度互换的张量。这没问题,因为我的占位符是相同的形状。但一旦张量进入我的模型,它就被重塑成一个宽度和高度。使图像在通过模型之前被“挤压”。这导致了我所经历的糟糕的预测结果