在使用Tensorflow的数据并行性时,真的有必要定义设备吗?

在使用Tensorflow的数据并行性时,真的有必要定义设备吗?,tensorflow,multi-gpu,Tensorflow,Multi Gpu,我从中了解到,Tensorflow采用贪婪的方法来决定如何在现有设备之间分配操作。然而,上唯一可用的多gpu示例建议将操作收集到“塔”中,并显式分配给特定设备。是否可以简单地定义这些塔的多个副本,并让Tensorflow自动将它们分配给不同的GPU

我从中了解到,Tensorflow采用贪婪的方法来决定如何在现有设备之间分配操作。然而,上唯一可用的多gpu示例建议将操作收集到“塔”中,并显式分配给特定设备。是否可以简单地定义这些塔的多个副本,并让Tensorflow自动将它们分配给不同的GPU