Variables tensorflow中python代码中同名的张量
根据中的代码:,张量变量使用了相同的名称,例如:Variables tensorflow中python代码中同名的张量,variables,tensorflow,tensor,Variables,Tensorflow,Tensor,根据中的代码:,张量变量使用了相同的名称,例如: conv = tf.nn.conv2d(images, kernel, [1, 1, 1, 1], padding='SAME') # Under conv1, line: 208 以及 因此,为什么在tensorflow中允许这样做?如果出于某种原因,如果我试图说: sess.run([conv], feed_dict{x: some_data}) 那么我们将计算哪个conv张量 其次,如果CONV1层下的conv张量是指tf.nn.con
conv = tf.nn.conv2d(images, kernel, [1, 1, 1, 1], padding='SAME') # Under conv1, line: 208
以及
因此,为什么在tensorflow中允许这样做?如果出于某种原因,如果我试图说:
sess.run([conv], feed_dict{x: some_data})
那么我们将计算哪个conv张量
其次,如果CONV1层下的conv张量是指tf.nn.conv2d操作。CONV2下的另一个conv张量如何引用第二个tf.nn.conv2d操作?换句话说,他们是如何被分开对待的
非常感谢您的帮助 关于您的问题:评估最新的conv 例如:
import tensorflow as tf
a = tf.constant(5)
b = tf.constant(6)
c = tf.multiply(a,b)
print c
c = tf.multiply(c,b)
print c
sess = tf.Session()
c_val = sess.run(c)
print c_val
输出:
Tensor("Mul:0", shape=(), dtype=int32)
Tensor("Mul_1:0", shape=(), dtype=int32)
180
你可以看到TF给它们起了不同的名字。无论何时调用TF操作符,它都会创建一个独立于python变量名的节点。但python变量名对应于您使用的最新张量
我希望这能有所帮助。我想,所有这些都属于不同的名称范围。他们的名字不同。所以,他们没有conflict@hars是的,我完全同意你的看法。但是从编码的角度来看,这怎么可能呢?
Tensor("Mul:0", shape=(), dtype=int32)
Tensor("Mul_1:0", shape=(), dtype=int32)
180