Python Tensorflow上的ResourceExhauster错误,无法切换到CPU
我在GPU上运行下面网站上的示例代码时遇到此错误 我的工作电脑中有一台Nvidia 1030,它只有2gm内存 我有16克的公羊 GPU内存错误是可以理解的,这就是为什么我试图切换到CPU 有人建议我使用这段代码,但它不起作用,而且在同一个错误上仍然失败 强制tensorfow使用常规ram的正确方法是什么? 有没有办法让Tensorflow使用更少的内存或更好地管理内存Python Tensorflow上的ResourceExhauster错误,无法切换到CPU,python,tensorflow,Python,Tensorflow,我在GPU上运行下面网站上的示例代码时遇到此错误 我的工作电脑中有一台Nvidia 1030,它只有2gm内存 我有16克的公羊 GPU内存错误是可以理解的,这就是为什么我试图切换到CPU 有人建议我使用这段代码,但它不起作用,而且在同一个错误上仍然失败 强制tensorfow使用常规ram的正确方法是什么? 有没有办法让Tensorflow使用更少的内存或更好地管理内存 import os os.environ["CUDA_DEVICE_ORDER"] = "PC
import os
os.environ["CUDA_DEVICE_ORDER"] = "PCI_BUS_ID"
os.environ["CUDA_VISIBLE_DEVICES"] = ""
发生异常:ResourceExhaustedError
通过分配器GPU\U 0\bfc分配形状为[16128161]且类型为float on/job:localhost/replica:0/task:0/device:GPU:0的张量时出现OOM
[[node Conv2DBackpropInput_3(定义于c:\Dev\Projects\TooGAN\Dataset\gan_test.py:147)]]
提示:如果您想在OOM发生时查看已分配的张量列表,请在OOM上添加report_tensor_allocations_on_to RunOptions以获取当前分配信息。
[Op:uuuu推断u批量训练u 1575]
函数调用堆栈:
批量生产
文件“C:\Dev\Projects\TooGAN\Dataset\gan\u test.py”,第147行,列车中
d_loss1,u=d_模型。批量训练(X_real,y_real)
文件“C:\Dev\Projects\TooGAN\Dataset\gan\u test.py”,第211行,在
训练(g_模型、d_模型、gan_模型、数据集、潜在维度)
Try
os.environ['CUDA\u VISIBLE\u DEVICES']='-1'
在导入TensorFlow之前需要设置CUDA\u VISIBLE\u设备,您是这样做的吗?如果您仍然想使用GPU,您是否尝试过减少培训的批量大小。批处理大小越小,所需的GPU内存就越少。
Exception has occurred: ResourceExhaustedError
OOM when allocating tensor with shape[16,128,161,161] and type float on /job:localhost/replica:0/task:0/device:GPU:0 by allocator GPU_0_bfc
[[node Conv2DBackpropInput_3 (defined at c:\Dev\Projects\TooGAN\Dataset\gan_test.py:147) ]]
Hint: If you want to see a list of allocated tensors when OOM happens, add report_tensor_allocations_upon_oom to RunOptions for current allocation info.
[Op:__inference_train_on_batch_1575]
Function call stack:
train_on_batch
File "C:\Dev\Projects\TooGAN\Dataset\gan_test.py", line 147, in train
d_loss1, _ = d_model.train_on_batch(X_real, y_real)
File "C:\Dev\Projects\TooGAN\Dataset\gan_test.py", line 211, in <module>
train(g_model, d_model, gan_model, dataset, latent_dim)