Tensorflow tf.contrib.data.prefetch_to_device()多个GPU

Tensorflow tf.contrib.data.prefetch_to_device()多个GPU,tensorflow,Tensorflow,TensorFlow最近引入了tf.contrib.data.prefetch_to_device(),它可以对GPU内存进行预取,但如何在具有多个GPU的系统上实现预取还不太清楚。每个GPU是否需要自己的管道和数据集块?在我看来,它的功能目前仅限于对一个设备进行预取。原因是我从来没有见过多个设备的规范,我非常怀疑您是否可以使用(分布式TensorFlow)作为参数 预取到一个GPU,尽管多个GPU希望访问数据集产生的张量,但仍可能带来性能提升,因为多GPU系统通常通过PCIe实现内存共享

TensorFlow最近引入了tf.contrib.data.prefetch_to_device(),它可以对GPU内存进行预取,但如何在具有多个GPU的系统上实现预取还不太清楚。每个GPU是否需要自己的管道和数据集块?

在我看来,它的功能目前仅限于对一个设备进行预取。原因是我从来没有见过多个设备的规范,我非常怀疑您是否可以使用(分布式TensorFlow)作为参数

预取到一个GPU,尽管多个GPU希望访问数据集产生的张量,但仍可能带来性能提升,因为多GPU系统通常通过PCIe实现内存共享