Python Cuda和pytorch内存使用
我正在使用Python Cuda和pytorch内存使用,python,pytorch,Python,Pytorch,我正在使用Cuda和Pytorch:1.4.0 当我尝试增加批处理大小时,出现以下错误: CUDA内存不足。尝试分配20.00 MiB(GPU 0;4.00 GiB总容量;2.74 GiB已分配;7.80 MiB空闲;PyTorch总共保留2.96 GiB) 我没有发现任何关于Pytorch内存使用的信息 另外,我不明白为什么我只有7.80的mib可用 我应该使用性能更好的显卡,还是可以释放一些内存?仅供参考,我有一个GTX 1050 TI、python 3,7和torch==1.4.0,我的操
Cuda
和Pytorch:1.4.0
当我尝试增加批处理大小时,出现以下错误:
CUDA内存不足。尝试分配20.00 MiB(GPU 0;4.00 GiB总容量;2.74 GiB已分配;7.80 MiB空闲;PyTorch总共保留2.96 GiB)
我没有发现任何关于Pytorch内存使用的信息
另外,我不明白为什么我只有7.80的mib可用
我应该使用性能更好的显卡,还是可以释放一些内存?仅供参考,我有一个GTX 1050 TI、python 3,7和torch==1.4.0,我的操作系统是Windows 10。我也有同样的问题,以下几点对我有效:
torch.cuda.empty_cache()
# start training from here
即使在这之后,如果您得到了错误,那么您也应该减少批大小我也遇到了同样的问题,以下几点对我有效:
torch.cuda.empty_cache()
# start training from here
即使在这之后,如果您收到错误,那么您应该减少批处理大小请不要将错误消息作为图像发布。未来的访问者无法搜索它们请不要将错误消息作为图像发布。它们不能被未来的访问者搜索。作为补充,用户可以在终端上使用
nvidia smi
命令检查GPU内存。此外,如果您在GPU上存储张量,可以使用tensor.cpu()
将它们移动到cpu。我使用这些命令解决了大部分内存问题。作为补充,可以在终端上使用nvidia smi
命令检查GPU内存。此外,如果您在GPU上存储张量,可以使用tensor.cpu()
将它们移动到cpu。我用这些命令解决了大部分内存问题。