Python 从[tensorflow 1.00]中的softmax层提取概率
使用tensorflow,我有一个LSTM分类模型,最后一个节点是softmax。 这是我的softmax图层:Python 从[tensorflow 1.00]中的softmax层提取概率,python,tensorflow,neural-network,Python,Tensorflow,Neural Network,使用tensorflow,我有一个LSTM分类模型,最后一个节点是softmax。 这是我的softmax图层: with tf.name_scope("Softmax") as scope: with tf.variable_scope("Softmax_params"): softmax_w = tf.get_variable("softmax_w", [hidden_size, num_classes])
with tf.name_scope("Softmax") as scope:
with tf.variable_scope("Softmax_params"):
softmax_w = tf.get_variable("softmax_w", [hidden_size, num_classes])
softmax_b = tf.get_variable("softmax_b", [num_classes])
logits = tf.nn.xw_plus_b(output, softmax_w, softmax_b) # Predicted label, eg y = tf.matmul(X, W) + b)
loss = tf.nn.sparse_softmax_cross_entropy_with_logits(labels=self.labels,
logits=logits,
name='softmax')
我的问题是,当使用新数据评估此模型时,如何提取每个类的概率
num_class = 129
for i in range(runs):
X_batch, y_batch = sample_batch(X_test[:200], y_test[:200], batch_size)
predictions = sess.run([model.logits], feed_dict = {model.input: X_batch, model.keep_prob: 1.0})
只要加一行就行了
probs = tf.nn.softmax(logits)
那就做吧
predictions = sess.run(model.probs, feed_dict=feed_dict)
预测变量有什么问题?没什么问题,我只是想知道是否有一种最理想的方法来获得每个类的概率。