Pytorch 我正在尝试修改代码,以使用多个GPU来训练我的transformer图像字幕模型以实现并行;我不知道是什么';列表';提到

Pytorch 我正在尝试修改代码,以使用多个GPU来训练我的transformer图像字幕模型以实现并行;我不知道是什么';列表';提到,pytorch,Pytorch,当我试图修改代码以使用多个GPU训练我的图像字幕模型时,出现了错误。我不知道“列表”指的是什么。也许是输入的问题,但我不知道为什么是错的 Meshed-Memory Transformer Training Let's use 3 GPUs! Training starts Epoch 0 - train: 0%| | 0

当我试图修改代码以使用多个GPU训练我的图像字幕模型时,出现了错误。我不知道“列表”指的是什么。也许是输入的问题,但我不知道为什么是错的

Meshed-Memory Transformer Training
Let's use 3 GPUs!
Training starts
Epoch 0 - train:   0%|                                                                                       | 0/9440 [00:08<?, ?it/s]
Traceback (most recent call last):
  File "train.py", line 257, in <module>
    train_loss = train_xe(model, dataloader_train, optim, text_field)
  File "train.py", line 82, in train_xe
    out = model(detections, captions)
  File "/data/zzw/anaconda3/envs/m2release/lib/python3.6/site-packages/torch/nn/modules/module.py", line 493, in __call__
    result = self.forward(*input, **kwargs)
  File "/data/zzw/anaconda3/envs/m2release/lib/python3.6/site-packages/torch/nn/parallel/data_parallel.py", line 151, in forward
    replicas = self.replicate(self.module, self.device_ids[:len(inputs)])
  File "/data/zzw/anaconda3/envs/m2release/lib/python3.6/site-packages/torch/nn/parallel/data_parallel.py", line 156, in replicate
    return replicate(module, device_ids)
  File "/data/zzw/anaconda3/envs/m2release/lib/python3.6/site-packages/torch/nn/parallel/replicate.py", line 174, in replicate
    replica._buffers[key] = buffer_copies[j][buffer_idx]
IndexError: list index out of range
网状存储变压器培训
让我们使用3个GPU!
训练开始

第0纪元-火车:0%| 0/9440[00:08我知道这已经有一段时间了,但是对于那些仍在努力解决这个问题的人来说,我使用
torch==1.1.0
也遇到了同样的问题。我通过将我的torch升级到
1.7.1