Python 无法在TensorFlow中为GradientDescentOptimizer收集渐变
我一直在尝试在TensorFlow中为GradientDescentOptimizer的每个步骤收集渐变步骤,但是当我尝试将Python 无法在TensorFlow中为GradientDescentOptimizer收集渐变,python,tensorflow,Python,Tensorflow,我一直在尝试在TensorFlow中为GradientDescentOptimizer的每个步骤收集渐变步骤,但是当我尝试将apply\u gradients()的结果传递到sess.run()时,我一直遇到类型错误。我尝试运行的代码是: import tensorflow as tf from tensorflow.examples.tutorials.mnist import input_data x = tf.placeholder(tf.float32,[None,784]) W =
apply\u gradients()
的结果传递到sess.run()
时,我一直遇到类型错误。我尝试运行的代码是:
import tensorflow as tf
from tensorflow.examples.tutorials.mnist import input_data
x = tf.placeholder(tf.float32,[None,784])
W = tf.Variable(tf.zeros([784,10]))
b = tf.Variable(tf.zeros([10]))
y = tf.nn.softmax(tf.matmul(x,W)+b)
y_ = tf.placeholder(tf.float32,[None,10])
cross_entropy = -tf.reduce_sum(y_*log(y))
# note that up to this point, this example is identical to the tutorial on tensorflow.org
gradstep = tf.train.GradientDescentOptimizer(0.01).compute_gradients(cross_entropy)
sess = tf.Session()
sess.run(tf.initialize_all_variables())
batch_x,batch_y = mnist.train.next_batch(100)
print sess.run(gradstep, feed_dict={x:batch_x,y_:batch_y})
请注意,如果我将最后一行替换为
print sess.run(train_step,feed_dict={x:batch_x,y_:batch_y})
,其中train_step=tf.GradientDescentOptimizer(0.01)。最小化(交叉熵)
,则不会产生错误。我的困惑源于minimize
调用compute\u gradients
,其参数与第一步完全相同。有人能解释为什么会发生这种行为吗?最小化调用计算梯度,然后再应用梯度:可能您错过了第二步
compute_gradients只返回梯度/变量,但不将更新规则应用于它们
下面是一个示例:该方法返回(张量
,变量
)对的列表,其中每个张量是相对于相应变量的梯度
Session.run()
需要一个Tensor
对象列表(或可转换为Tensor
的对象)作为其第一个参数。它不知道如何处理对列表,因此您会得到一个TypeError
,您试图运行它sess.run(gradstep,…)
正确的解决方案取决于您试图做什么。如果要获取所有渐变值,可以执行以下操作:
grad_vals = sess.run([grad for grad, _ in gradstep], feed_dict={x: batch_x, y: batch_y})
# Then, e.g., nuild a variable name-to-gradient dictionary.
var_to_grad = {}
for grad_val, (_, var) in zip(grad_vals, gradstep):
var_to_grad[var.name] = grad_val
如果还希望获取变量,可以单独执行以下语句:
sess.run([var for _, var in gradstep])
…但是请注意,在不进一步修改程序的情况下,这只会返回每个变量的初始值。
您必须运行优化器的培训步骤(或其他调用)来更新变量。您好,谢谢您的回复。我不是想最小化优化器,我只是想在每一步打印出梯度。我之所以提出minimize反例,是因为它涉及调用compute_梯度,所以人们会认为使用相同参数调用该函数也会产生错误。