Python 我的CNN型号在我的GPU上使用了太多内存。如何在CPU内存中托管一些张量?

Python 我的CNN型号在我的GPU上使用了太多内存。如何在CPU内存中托管一些张量?,python,tensorflow,memory,cpu,Python,Tensorflow,Memory,Cpu,我正在NVidia RTX 2080上训练一个CNN模型,它变得越来越大,现在我的卡出现了一些内存问题。我读了一些关于这个主题的文章,Tensorflow似乎可以在训练期间在CPU内存上托管一些节点,并在需要时在GPU内存中检索(如中所示) 有什么想法/文件/例子吗 谢谢 没有任何代码,很难提供帮助。 一般来说,你可以看一看 例如: with tf.device('/cpu:0'): a = tf.constant([1.0, 2.0, 3.0, 4.0, 5.0, 6.0], shape=

我正在NVidia RTX 2080上训练一个CNN模型,它变得越来越大,现在我的卡出现了一些内存问题。我读了一些关于这个主题的文章,Tensorflow似乎可以在训练期间在CPU内存上托管一些节点,并在需要时在GPU内存中检索(如中所示)

有什么想法/文件/例子吗


谢谢

没有任何代码,很难提供帮助。 一般来说,你可以看一看

例如:

with tf.device('/cpu:0'):
  a = tf.constant([1.0, 2.0, 3.0, 4.0, 5.0, 6.0], shape=[2, 3], name='a')
  b = tf.constant([1.0, 2.0, 3.0, 4.0, 5.0, 6.0], shape=[3, 2], name='b')
可以在cpu上显式创建变量