Pytorch 具有多个GPU错误的LSTM示例:模块';火炬';没有属性';长';

Pytorch 具有多个GPU错误的LSTM示例:模块';火炬';没有属性';长';,pytorch,Pytorch,当使用CPU或1 GPU时,下面的代码工作正常。但是,当我使用超过1个GPU时,它会给出一个错误: AttributeError:模块“火炬”没有属性“长” 导致错误的代码: def prepare_sequence(seq, to_ix): idxs = [to_ix[w] for w in seq] return torch.tensor(idxs, dtype=torch.long) 为什么它不适用于多个GPU?试试: def prepare_sequence(seq,

当使用CPU或1 GPU时,下面的代码工作正常。但是,当我使用超过1个GPU时,它会给出一个错误:

AttributeError:模块“火炬”没有属性“长”

导致错误的代码:

def prepare_sequence(seq, to_ix):
    idxs = [to_ix[w] for w in seq]
    return torch.tensor(idxs, dtype=torch.long)
为什么它不适用于多个GPU?

试试:

def prepare_sequence(seq, to_ix):
    idxs = [to_ix[w] for w in seq]
    return torch.LongTensor(idxs)