Tensorflow 我应该什么时候初始化局部变量?
我对Tensorflow 我应该什么时候初始化局部变量?,tensorflow,Tensorflow,我对tf.local\u variables\u初始值设定项有点困惑。我不知道什么时候叫它 我在其他人的代码中看到,他们只是对像 init_op = tf.group(tf.global_variables_initializer(), tf.local_variables_initializer()) 是否应该在每个TF程序中调用init_op?这是一种“懒惰”的TF编程风格吗 作为一个例子,考虑诸如代码> UpPuthStRIGIGO生产者>代码>的队
tf.local\u variables\u初始值设定项有点困惑。我不知道什么时候叫它
我在其他人的代码中看到,他们只是对像
init_op = tf.group(tf.global_variables_initializer(),
tf.local_variables_initializer())
是否应该在每个TF程序中调用init_op
?这是一种“懒惰”的TF编程风格吗
作为一个例子,考虑诸如<>代码> UpPuthStRIGIGO生产者>代码>的队列,指定为:
tf.input_string_producer(file_list, num_epochs=None)
不需要tf.local\u variables\u initializer()
但是,在指定实际的纪元数时
tf.input_string_producer(file_list,num_epochs=1)
实际上需要执行tf.local\u variables\u initializer()
程序员如何知道何时(或何时)初始化这些“隐藏”的局部变量?FIFOQueue
不应该初始化它自己的变量吗?或者有类似queue.initializer的东西吗?对于本地tensorflow作业,您需要同时初始化本地和全局变量。对于分布式TensorFlow作业,首席工作人员初始化本地+全局,而其余工作人员只初始化本地。那么这里的最佳实践是什么?对于本地使用,只需调用init_op
并忘记它?如何知道“隐藏的”本地变量?是的,最佳实践是使用init_op
与您发布的代码类似