Python 如何在Pytork中为Seq2seq模型实现小批量下降
我是一个初学者,使用链接实现了一个序列到序列的音译模型。可以看出,train()函数定义中的代码如下所示:Python 如何在Pytork中为Seq2seq模型实现小批量下降,python,pytorch,seq2seq,encoder-decoder,batchsize,Python,Pytorch,Seq2seq,Encoder Decoder,Batchsize,我是一个初学者,使用链接实现了一个序列到序列的音译模型。可以看出,train()函数定义中的代码如下所示: for ei in range(input_length): encoder_output, encoder_hidden = encoder( input_tensor[ei], encoder_hidden) encoder_outputs[ei] = encoder_output[0, 0]
for ei in range(input_length):
encoder_output, encoder_hidden = encoder(
input_tensor[ei], encoder_hidden)
encoder_outputs[ei] = encoder_output[0, 0]
for i in batches:
encoder_output, encoder_hidden = encoder(
i, encoder_hidden)
可以看出,该函数的作用方式是逐字符迭代一个文本字符。所以批量大小是1。所以嵌入层之后的输出是[1,1,嵌入层大小]
我想实现如下内容:
for ei in range(input_length):
encoder_output, encoder_hidden = encoder(
input_tensor[ei], encoder_hidden)
encoder_outputs[ei] = encoder_output[0, 0]
for i in batches:
encoder_output, encoder_hidden = encoder(
i, encoder_hidden)
所以我得到[批量大小,序列长度,嵌入层大小]。也用同样的方法解码。请注意,批次中每个序列的seq_长度不同
请帮助我,一个指向资源的指针也就足够了