Nlp 如何在PyTorch中正确实现Seq2Seq LSTM的填充?

Nlp 如何在PyTorch中正确实现Seq2Seq LSTM的填充?,nlp,pytorch,lstm,recurrent-neural-network,seq2seq,Nlp,Pytorch,Lstm,Recurrent Neural Network,Seq2seq,在这种情况下,尽管具有可变长度的输入和输出,但它们不使用填充。它似乎工作得很好,但如何呢?如果输入长度可变,我们不应该实现填充吗?正确的方法是什么 谢谢。是的,你说得对。如果批量大小大于1且序列大小不同,则应填充输入张量。 但该示例生成的输入张量如下所示: def输入传感器(线路): 张量=火炬。零(长(线),1,n_字母)#

在这种情况下,尽管具有可变长度的输入和输出,但它们不使用填充。它似乎工作得很好,但如何呢?如果输入长度可变,我们不应该实现填充吗?正确的方法是什么


谢谢。

是的,你说得对。如果批量大小大于1且序列大小不同,则应填充输入张量。
但该示例生成的输入张量如下所示:

def输入传感器(线路):
张量=火炬。零(长(线),1,n_字母)#