Python 当在tensorflow中排队时,使用来自多个线程的相同占位符变量是否是竞争条件?

Python 当在tensorflow中排队时,使用来自多个线程的相同占位符变量是否是竞争条件?,python,tensorflow,Python,Tensorflow,我已经定义了一个FIFOQueue,我将使用多个线程从自定义函数加载它 我还定义了占位符以将数据提供给队列 我应该为每个线程定义不同的占位符吗?或者所有线程可以同时使用x_enqueue和标签_enqueue占位符吗?据我从实验中学到的,答案是否定的。对会话的多次调用基本上是快照变量当前值的时间点视图,在运行完成所有处理之前,这些值在运行外部不可见。有关我如何得出此结论的更多详细信息,请参见以下相关问题: queue = tf.FIFOQueue(batch_size * 2, dtypes=[

我已经定义了一个FIFOQueue,我将使用多个线程从自定义函数加载它

我还定义了占位符以将数据提供给队列


我应该为每个线程定义不同的占位符吗?或者所有线程可以同时使用
x_enqueue
标签_enqueue
占位符吗?

据我从实验中学到的,答案是否定的。对会话的多次调用基本上是快照变量当前值的时间点视图,在运行完成所有处理之前,这些值在运行外部不可见。有关我如何得出此结论的更多详细信息,请参见以下相关问题:

queue = tf.FIFOQueue(batch_size * 2, dtypes=[tf.uint8, tf.float32], shapes=[[1,1080,1920,3], [1,11]], name='queue')

x_enqueue = tf.placeholder(dtype=tf.uint8, shape=[1,1080,1920,3], name="x_enqueue")
labels_enqueue = tf.placeholder(tf.float32, shape=[1, 11], name="labels_enqueue")  # todo define in loader thread