Python TensorFlow-显示会话中的所有变量

Python TensorFlow-显示会话中的所有变量,python,tensorflow,Python,Tensorflow,我玩了一点 import tensorflow as tf x = tf.Variable([1.0, 2.0]) initializer = tf.global_variables_initializer() session.run(initializer) x <tf.Variable 'Variable:0' shape=(2,) dtype=float32_ref> y = 2 * x y <tf.Tensor 'mul:0' shape=(2,) dtype=floa

我玩了一点

import tensorflow as tf
x = tf.Variable([1.0, 2.0])
initializer = tf.global_variables_initializer()
session.run(initializer)
x
<tf.Variable 'Variable:0' shape=(2,) dtype=float32_ref>
y = 2 * x
y
<tf.Tensor 'mul:0' shape=(2,) dtype=float32>
z = y + 1
z
<tf.Tensor 'add:0' shape=(2,) dtype=float32>
v = session.run(x)
sess.run(initializer)
v = sess.run(x) 
print (v)
[ 1.  2.]
v1 = sess.run(z)
print (v1)
[ 3.  5.]
v = sess.run(x)
将tensorflow导入为tf
x=tf.变量([1.0,2.0])
initializer=tf.global\u variables\u initializer()
session.run(初始值设定项)
x
y=2*x
Y
z=y+1
Z
v=会话。运行(x)
sess.run(初始值设定项)
v=sess.run(x)
印刷品(五)
[ 1.  2.]
v1=sess.run(z)
打印(v1)
[ 3.  5.]
v=sess.run(x)
我有3个变量x,y,z。是否可以从提示符显示一个命令定义的所有变量? 如果我试一下乔纳斯的建议

new = tf.trainable_variables()
print (new)
[<tf.Variable 'Variable:0' shape=(2,) dtype=float32_ref>]
new=tf.可训练的变量()
打印(新)
[]

tf.trainable_variables()
打印出图形中的所有可训练变量,在您的示例中,该变量仅为x。在执行
y=2*x
时,实际上是隐式定义一个常量值
mul/x
,并将原始变量作为
变量/读取

如果运行以下代码:

x=tf.变量(1)
y=2*x
z=y+1
对于tf.get_default_graph().as_graph_def().节点中的v:
打印v.name
您将获得以下输出:

Variable/initial_value
Variable
Variable/Assign
Variable/read
mul/x
mul
add/y
add
这些是图形中的所有节点。您可以使用此选项筛选出所需的所有相关信息。针对您的情况,我不会调用
y
z
变量

请注意,这是从图形而不是会话获取所有信息。如果您想从特定会话中获取它,则需要获取相关会话并调用
sess.graph


最后请注意,上面的示例使用了
v.name
,但每个图形节点实际上具有更多属性,例如
name
op
input
device
attr
。有关更多信息,请参阅。

也许我误解了这个问题,但这有什么错

print(sess.run([x, y, z]))

您可以调用
tf.trainable\u variables()
。查看我的编辑,这并不能解决问题。