Tensorflow,如何确保一切都在GPU中运行?

Tensorflow,如何确保一切都在GPU中运行?,tensorflow,Tensorflow,我的理解是tensorflow将获取一个计算图,并在gpu和cpu上运行它,以达到最大使用率。如何确保我的代码仅在gpu上运行?您可以将所有图形构建代码包装在一个块中,如下所示: with tf.device("/gpu:0"): # [Build graph in here.] 使用此注释,放置算法将在GPU设备上放置所有操作,如果任何操作没有GPU实现,则会失败。(如您所述,如果没有此注释,它将退回到在CPU设备上放置没有GPU实现的操作。)您可以将所有图形构建代码包装在一个块中,

我的理解是tensorflow将获取一个计算图,并在gpu和cpu上运行它,以达到最大使用率。如何确保我的代码仅在gpu上运行?

您可以将所有图形构建代码包装在一个块中,如下所示:

with tf.device("/gpu:0"):
    # [Build graph in here.]

使用此注释,放置算法将在GPU设备上放置所有操作,如果任何操作没有GPU实现,则会失败。(如您所述,如果没有此注释,它将退回到在CPU设备上放置没有GPU实现的操作。)

您可以将所有图形构建代码包装在一个块中,如下所示:

with tf.device("/gpu:0"):
    # [Build graph in here.]

使用此注释,放置算法将在GPU设备上放置所有操作,如果任何操作没有GPU实现,则会失败。(如您所述,如果没有此注释,它将退回到在CPU设备上放置没有GPU实现的操作。)

因此,如果我不使用tf.device(…)手动将tensorflow代码分配给不同的GPU,它似乎仍然使用所有GPU。这是否意味着默认情况下,tensorflow会在所有GPU上分发计算图?如果我没有NVEDIA卡,它会工作吗,因为tensorflow只支持NVIDIA。如果我有英特尔卡呢?有可能吗?所以如果我不使用tf.device(…)手动将tensorflow代码分配给不同的GPU,它似乎仍然使用所有GPU。这是否意味着默认情况下,tensorflow会在所有GPU上分发计算图?如果我没有NVEDIA卡,它会工作吗,因为tensorflow只支持NVIDIA。如果我有英特尔卡呢?可能吗?