Deep learning OpenNMT py中的输出隐藏状态

Deep learning OpenNMT py中的输出隐藏状态,deep-learning,pytorch,tensorboard,seq2seq,opennmt,Deep Learning,Pytorch,Tensorboard,Seq2seq,Opennmt,我只是有一个关于pytorch版本OpenNMT的简短问题。在选项中似乎没有返回编码器和解码器隐藏状态的选项。我是否缺少一个标志,或者这不是OpenNMT py中的一个选项?编码器和解码器不返回隐藏状态是什么意思 如果看到,它将返回encoder\u final,memory\u bank,length,其中memory\u bank表示隐藏状态,其形状为序列长度x批次大小x隐藏大小。解码器通常在序列到序列模型中使用编码器\u final 现在,让我们来看看。如我们所见,forward()方法返

我只是有一个关于pytorch版本OpenNMT的简短问题。在选项中似乎没有返回编码器和解码器隐藏状态的选项。我是否缺少一个标志,或者这不是OpenNMT py中的一个选项?

编码器和解码器不返回隐藏状态是什么意思

如果看到,它将返回
encoder\u final,memory\u bank,length
,其中
memory\u bank
表示隐藏状态,其形状为
序列长度x批次大小x隐藏大小
。解码器通常在序列到序列模型中使用
编码器\u final

现在,让我们来看看。如我们所见,forward()方法返回一个FlaotTensor和一个FlaotTensor字典

(FloatTensor, dict[str, FloatTensor]):
* dec_outs: output from the decoder (after attn)
  ``(tgt_len, batch, hidden)``.
* attns: distribution over src at each tgt
  ``(tgt_len, batch, src_len)``.
通常,我们按顺序使用
dec\u out
对任务进行排序。例如,在自然语言生成任务中,我们将
dec_out
馈送到softmax层以预测标记

您可以从以下两个链接了解其他几种类型的编码器/解码器


在内存库中,如何区分LSTM模型的单元状态和隐藏状态?我没有得到单元格的单独值。