Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/python/329.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Python Tensorflow上的ResourceExhauster错误,无法切换到CPU_Python_Tensorflow - Fatal编程技术网

Python Tensorflow上的ResourceExhauster错误,无法切换到CPU

Python Tensorflow上的ResourceExhauster错误,无法切换到CPU,python,tensorflow,Python,Tensorflow,我在GPU上运行下面网站上的示例代码时遇到此错误 我的工作电脑中有一台Nvidia 1030,它只有2gm内存 我有16克的公羊 GPU内存错误是可以理解的,这就是为什么我试图切换到CPU 有人建议我使用这段代码,但它不起作用,而且在同一个错误上仍然失败 强制tensorfow使用常规ram的正确方法是什么? 有没有办法让Tensorflow使用更少的内存或更好地管理内存 import os os.environ["CUDA_DEVICE_ORDER"] = "PC

我在GPU上运行下面网站上的示例代码时遇到此错误 我的工作电脑中有一台Nvidia 1030,它只有2gm内存 我有16克的公羊

GPU内存错误是可以理解的,这就是为什么我试图切换到CPU 有人建议我使用这段代码,但它不起作用,而且在同一个错误上仍然失败

强制tensorfow使用常规ram的正确方法是什么? 有没有办法让Tensorflow使用更少的内存或更好地管理内存

import os
os.environ["CUDA_DEVICE_ORDER"] = "PCI_BUS_ID" 
os.environ["CUDA_VISIBLE_DEVICES"] = ""

发生异常:ResourceExhaustedError 通过分配器GPU\U 0\bfc分配形状为[16128161]且类型为float on/job:localhost/replica:0/task:0/device:GPU:0的张量时出现OOM [[node Conv2DBackpropInput_3(定义于c:\Dev\Projects\TooGAN\Dataset\gan_test.py:147)]] 提示:如果您想在OOM发生时查看已分配的张量列表,请在OOM上添加report_tensor_allocations_on_to RunOptions以获取当前分配信息。 [Op:uuuu推断u批量训练u 1575] 函数调用堆栈: 批量生产 文件“C:\Dev\Projects\TooGAN\Dataset\gan\u test.py”,第147行,列车中 d_loss1,u=d_模型。批量训练(X_real,y_real) 文件“C:\Dev\Projects\TooGAN\Dataset\gan\u test.py”,第211行,在 训练(g_模型、d_模型、gan_模型、数据集、潜在维度)
Try
os.environ['CUDA\u VISIBLE\u DEVICES']='-1'
在导入TensorFlow之前需要设置CUDA\u VISIBLE\u设备,您是这样做的吗?如果您仍然想使用GPU,您是否尝试过减少培训的批量大小。批处理大小越小,所需的GPU内存就越少。
Exception has occurred: ResourceExhaustedError
 OOM when allocating tensor with shape[16,128,161,161] and type float on /job:localhost/replica:0/task:0/device:GPU:0 by allocator GPU_0_bfc
     [[node Conv2DBackpropInput_3 (defined at c:\Dev\Projects\TooGAN\Dataset\gan_test.py:147) ]]
Hint: If you want to see a list of allocated tensors when OOM happens, add report_tensor_allocations_upon_oom to RunOptions for current allocation info.
 [Op:__inference_train_on_batch_1575]

Function call stack:
train_on_batch
  File "C:\Dev\Projects\TooGAN\Dataset\gan_test.py", line 147, in train
    d_loss1, _ = d_model.train_on_batch(X_real, y_real)
  File "C:\Dev\Projects\TooGAN\Dataset\gan_test.py", line 211, in <module>
    train(g_model, d_model, gan_model, dataset, latent_dim)