Tensorflow 张量流:一类分类

Tensorflow 张量流:一类分类,tensorflow,classification,deep-learning,Tensorflow,Classification,Deep Learning,我正在尝试调整教程,以便只检测一个类,比如检测图像是否包含小猫 这是我代码的预测部分: y_conv=tf.nn.softmax(tf.matmul(h_fc1_drop, W_fc2) + b_fc2) cross_entropy = tf.reduce_mean(-tf.reduce_sum(y_ * tf.log(y_conv), reduction_indices=[1])) train_step = tf.train.AdamOptimizer(1e-4).minimize(cross

我正在尝试调整教程,以便只检测一个类,比如检测图像是否包含小猫

这是我代码的预测部分:

y_conv=tf.nn.softmax(tf.matmul(h_fc1_drop, W_fc2) + b_fc2)
cross_entropy = tf.reduce_mean(-tf.reduce_sum(y_ * tf.log(y_conv), reduction_indices=[1]))
train_step = tf.train.AdamOptimizer(1e-4).minimize(cross_entropy)
correct_prediction = tf.equal(tf.argmax(y_conv,1), tf.argmax(y_,1))
accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))
sess.run(tf.initialize_all_variables())
for i in range(20000):
  batch = mnist.train.next_batch(50)
  if i%100 == 0:
    train_accuracy = accuracy.eval(feed_dict={
        x:batch[0], y_: batch[1], keep_prob: 1.0})
    print("step %d, training accuracy %g"%(i, train_accuracy))
  train_step.run(feed_dict={x: batch[0], y_: batch[1], keep_prob: 0.5})

print("test accuracy %g"%accuracy.eval(feed_dict={
    x: mnist.test.images, y_: mnist.test.labels, keep_prob: 1.0}))
问题是,对于一个类,softmax始终以1的置信度返回该类,即使是空白图像。 我试图修改softmax和交叉熵,但我无法解决它

我需要知道针对这个问题建议采用什么方法。 我想预测的是一张图片变成小猫的概率

我知道这可以通过使用随机图像训练的第二个标签来解决,但我需要知道是否有更好的解决方案


非常感谢。

不要将softmax和多类logloss用于单个类成员资格预测。相反,更常见的设置是具有二元交叉熵的sigmoid激活。除非您正在优化正确预测的成本/收益*,否则只需将阈值设置为>0.5即可归类为“正”类

在TensorFlow中,这只会在几个地方更改代码

我认为以下调整适用于代码的开头:

y_conv = tf.nn.sigmoid(tf.matmul(h_fc1_drop, W_fc2) + b_fc2)

# I've split the individual loss out because the line length was too long
# The +1e-12 is for numerical stability in case of perfect 0.0 or 1.0 predictions
# Note how this loss metric penalises incorrect predictions in both directions,
# unlike the multiclass logloss which only assessed confidence in
# correct class.
loss = -(y_ * tf.log(y_conv + 1e-12) + (1 - y_) * tf.log( 1 - y_conv + 1e-12))
cross_entropy = tf.reduce_mean(tf.reduce_sum(loss, reduction_indices=[1]))

predict_is_kitty = tf.greater(y_conv,0.5)
correct_prediction = tf.equal( tf.to_float(predict_is_kitty), y_ )


*如果您正在处理一个您关心预测置信度的问题,并且需要评估在何处设置阈值,通常的度量标准而不是准确性。

请提供完整的代码?另外,你每节课使用多少个训练和测试图像?整个代码都是教程中的代码,我使用50K图像进行训练5K进行测试。所有图像都属于一个唯一的类。您有两个类,kitty和not kitty,所以它是二元分类的。@MatiasValdenegro谢谢您的回答,我尝试使用两个标签,但我只使用了50K的kitty图像对其进行了训练,它仍然可以预测任何作为kitty的图像。我还要用没有小猫的随机图像来训练它?Thanks@cropmad1548You试过了,那么你用什么来处理非猫咪的图像呢?在这种情况下,应该引入随机的非基蒂图像。问题是他的数据包含1个类!如果你用这个训练,不管输入是什么,输出总是1或任何你分配给这个类的值。@thang:实际上OP有两个类(cat或not cat)和一个二进制标签,但试图用一个输出使用softmax。他们可以使用softmax的两个输出(一个热编码他们的真/假类,例如[1,0]表示假,[0,1]表示真),或者根据我的回答使用sigmoid的一个输出,并使用标签[0],[1]OP一直显示1个类。我假设他有两个班,但他的训练数据只包含1个班。这通常称为单类分类问题(OCC)。在这种情况下,在训练过程中,无论使用2个输出与xentropy softmax还是1个输出与0和1,训练都将始终收敛到仅使用1类训练数据的退化解决方案。OCC略有不同,同样的监督培训制度也不起作用。@thang:好吧,我明白了,这可能不是关于标签,而是关于培训集。在这种情况下,我的答案确实遗漏了一些东西。然而,问题中使用的
softmax
仍然可能不正确(OP投诉时,一个输出总是预测1,即使训练数据中正确表示了这两个类),我的回答仍然涵盖了这一部分。遗憾的是,OP没有给出关于这个答案的反馈,所以他们是否也需要查看OCC还不是100%清楚。