Pytorch cuda在尝试使用spacy的Transformer模型训练模型时内存不足

Pytorch cuda在尝试使用spacy的Transformer模型训练模型时内存不足,pytorch,gpu,google-colaboratory,Pytorch,Gpu,Google Colaboratory,我试图在Spacy transformer模型的基础上训练一个定制的NER模型。 为了更快的训练,我在GPU上运行它,并在Google Colab Pro上使用cuda和高Ram服务器 在第一次迭代之后,我得到一个错误: 运行时错误:CUDA内存不足。尝试分配480.00 MiB(GPU 0; 11.17 GiB总容量;9.32 GiB已分配;193.31 MiB空闲;PyTorch共预留10.32 GiB) 对于上面的错误,我也尝试清空缓存。但我还是犯了这个错误。似乎没有腾出足够的空间 imp

我试图在Spacy transformer模型的基础上训练一个定制的NER模型。 为了更快的训练,我在GPU上运行它,并在Google Colab Pro上使用cuda和高Ram服务器

在第一次迭代之后,我得到一个错误:

运行时错误:CUDA内存不足。尝试分配480.00 MiB(GPU 0; 11.17 GiB总容量;9.32 GiB已分配;193.31 MiB空闲;PyTorch共预留10.32 GiB)

对于上面的错误,我也尝试清空缓存。但我还是犯了这个错误。似乎没有腾出足够的空间

import torch
torch.cuda.empty_cache()

此外,我还尝试将批量大小减少到2。仍然会出现相同的错误。

使用nvidia smi检查gpu分配