Python 如何在Pytork中为Seq2seq模型实现小批量下降

Python 如何在Pytork中为Seq2seq模型实现小批量下降,python,pytorch,seq2seq,encoder-decoder,batchsize,Python,Pytorch,Seq2seq,Encoder Decoder,Batchsize,我是一个初学者,使用链接实现了一个序列到序列的音译模型。可以看出,train()函数定义中的代码如下所示: for ei in range(input_length): encoder_output, encoder_hidden = encoder( input_tensor[ei], encoder_hidden) encoder_outputs[ei] = encoder_output[0, 0]

我是一个初学者,使用链接实现了一个序列到序列的音译模型。可以看出,train()函数定义中的代码如下所示:

    for ei in range(input_length):
            encoder_output, encoder_hidden = encoder(
                   input_tensor[ei], encoder_hidden)
            encoder_outputs[ei] = encoder_output[0, 0]
  for i in batches:
        encoder_output, encoder_hidden = encoder(
               i, encoder_hidden)
可以看出,该函数的作用方式是逐字符迭代一个文本字符。所以批量大小是1。所以嵌入层之后的输出是[1,1,嵌入层大小]

我想实现如下内容:

    for ei in range(input_length):
            encoder_output, encoder_hidden = encoder(
                   input_tensor[ei], encoder_hidden)
            encoder_outputs[ei] = encoder_output[0, 0]
  for i in batches:
        encoder_output, encoder_hidden = encoder(
               i, encoder_hidden)
所以我得到[批量大小,序列长度,嵌入层大小]。也用同样的方法解码。请注意,批次中每个序列的seq_长度不同

请帮助我,一个指向资源的指针也就足够了