Python 我的CNN型号在我的GPU上使用了太多内存。如何在CPU内存中托管一些张量?
我正在NVidia RTX 2080上训练一个CNN模型,它变得越来越大,现在我的卡出现了一些内存问题。我读了一些关于这个主题的文章,Tensorflow似乎可以在训练期间在CPU内存上托管一些节点,并在需要时在GPU内存中检索(如中所示) 有什么想法/文件/例子吗Python 我的CNN型号在我的GPU上使用了太多内存。如何在CPU内存中托管一些张量?,python,tensorflow,memory,cpu,Python,Tensorflow,Memory,Cpu,我正在NVidia RTX 2080上训练一个CNN模型,它变得越来越大,现在我的卡出现了一些内存问题。我读了一些关于这个主题的文章,Tensorflow似乎可以在训练期间在CPU内存上托管一些节点,并在需要时在GPU内存中检索(如中所示) 有什么想法/文件/例子吗 谢谢 没有任何代码,很难提供帮助。 一般来说,你可以看一看 例如: with tf.device('/cpu:0'): a = tf.constant([1.0, 2.0, 3.0, 4.0, 5.0, 6.0], shape=
谢谢 没有任何代码,很难提供帮助。 一般来说,你可以看一看 例如:
with tf.device('/cpu:0'):
a = tf.constant([1.0, 2.0, 3.0, 4.0, 5.0, 6.0], shape=[2, 3], name='a')
b = tf.constant([1.0, 2.0, 3.0, 4.0, 5.0, 6.0], shape=[3, 2], name='b')
可以在cpu上显式创建变量