Python 2.7 当模型为计算张量流时,避免最小化

Python 2.7 当模型为计算张量流时,避免最小化,python-2.7,tensorflow,conv-neural-network,Python 2.7,Tensorflow,Conv Neural Network,我有一个Tensorflow图(一个神经网络),在其中我定义了这个变量: optimizer = tf.train.AdamOptimizer(learning_rate=learning_rate).minimize(Joint_Loss) 当我使用该方法输入图形时 o = sess.run([optimizer], feed_dict={x: batch_x, y: batch_y,} 我在图中运行了一个优化权重的

我有一个Tensorflow图(一个神经网络),在其中我定义了这个变量:

optimizer = tf.train.AdamOptimizer(learning_rate=learning_rate).minimize(Joint_Loss)
当我使用该方法输入图形时

o = sess.run([optimizer], feed_dict={x: batch_x,
                                     y: batch_y,}
我在图中运行了一个优化权重的步骤(更新了我的网络的权重)

现在,如果我在上一次调用后调用另一个运行,该运行具有相同的图形(具有optimizer变量),而不指定optimizer作为fetches arg,如下所示:

  loss = sess.run([loss], feed_dict={x: batch_x,
                                     y: batch_y,}   

是否完成最小化步骤(更新权重)?如果完成了,我如何使用tensorflow条件语句避免它?

否,网络不会更新。由于您的
丢失
不依赖于计算图中的
优化器
,tensorflow将省略此操作的执行。

否,网络不会更新。由于您的
损失
不依赖于计算图中的
优化器
,因此tensorflow将省略此操作的执行。

因此,只有当我将依赖优化器的变量指定为fetches arg正确吗?是时,权重才会更新。或者优化器操作本身。因此,只有当我将一个依赖于优化器的变量指定为fetches arg时,权重才会更新。正确吗?是。或者优化器操作本身。