Tensorflow 变量如何维护图形的状态?
我正在努力学习tensorflow。我真的对tf.Variable的用法感到困惑。我知道在机器学习中,我们必须随机为过滤器分配权重。但这可以通过tf.u normal函数实现。那么tf.Variable在这里的作用是什么?文档说明tf.Variable维护图形的状态。这是什么意思?若省略tf,变量结果是相同的。那么tf.Variable的作用是什么呢?有人能帮我理解这一点吗Tensorflow 变量如何维护图形的状态?,tensorflow,Tensorflow,我正在努力学习tensorflow。我真的对tf.Variable的用法感到困惑。我知道在机器学习中,我们必须随机为过滤器分配权重。但这可以通过tf.u normal函数实现。那么tf.Variable在这里的作用是什么?文档说明tf.Variable维护图形的状态。这是什么意思?若省略tf,变量结果是相同的。那么tf.Variable的作用是什么呢?有人能帮我理解这一点吗 `def weight_variable(shape): initial = tf.truncated_norma
`def weight_variable(shape):
initial = tf.truncated_normal(shape, mean=0, stddev=0.1)
return tf.Variable(initial)
#function call
filter = weight_variable([1,2,2,1])`
在
tensorflow
中,使用tf.Variable()
创建的任何内容都将在反向传播训练期间得到更新,例如,权重矩阵
理想情况下,默认情况下,每个tf.Variable()
都是可训练的,除非您明确指定它为不可训练的
如果您这样做initial=tf.truncated_normal([5,10],mean=0,stddev=0.1)
,那么tensorflow将不知道它是一个可训练变量,因此不会训练它。它将在整个训练过程中保持不变