Pytorch 如何在语义分割任务中提高NYUV-2数据集的读取速度,从而提高GPU的利用率?

Pytorch 如何在语义分割任务中提高NYUV-2数据集的读取速度,从而提高GPU的利用率?,pytorch,gpu,semantic-segmentation,Pytorch,Gpu,Semantic Segmentation,环境:特斯拉V100 GPU,Pytorch框架 任务:语义分割 数据集:NYUV-2数据集 主干网:deeplab-resnet18 参数设置: batchsize设置为16 数据加载器中的数字\u worker=8,引脚\u memory=True 问题是:GPU内存几乎已满,但利用率一直在20到100之间快速跳动。 初步验证:这应该是数据读取和写入的问题。每次读取一个批时,利用率都会降低20,然后迅速降低到100,然后降低到20。。。 那么,如何有效地提高数据集I\O速度呢

环境:特斯拉V100 GPU,Pytorch框架 任务:语义分割 数据集:NYUV-2数据集 主干网:deeplab-resnet18 参数设置:

  • batchsize设置为16
  • 数据加载器中的数字\u worker=8,引脚\u memory=True 问题是:GPU内存几乎已满,但利用率一直在20到100之间快速跳动。 初步验证:这应该是数据读取和写入的问题。每次读取一个批时,利用率都会降低20,然后迅速降低到100,然后降低到20。。。 那么,如何有效地提高数据集I\O速度呢