Deep learning 一些双向LSTM层的尺寸是多少?

Deep learning 一些双向LSTM层的尺寸是多少?,deep-learning,pytorch,lstm,seq2seq,Deep Learning,Pytorch,Lstm,Seq2seq,我读了一篇关于机器翻译的论文,它使用了投影层。其编码器有6个双向LSTM层。如果输入嵌入维度是512,编码器输出的维度是多少?512*2**5 报纸的链接:不太清楚。不幸的是,上述论文中的图1有点误导。并不是如图所示,六个编码层是并行的,而是这些层是连续的,这意味着前一层的隐藏状态/输出在下一层中用作输入 这一点,以及输入(嵌入)维度不是LSTM层的输出维度的事实(事实上,它是2*隐藏大小)将输出维度更改为:2*隐藏大小,然后再放入最终投影层,这同样会根据您的规格更改尺寸 我不太清楚add的描述

我读了一篇关于机器翻译的论文,它使用了投影层。其编码器有6个双向LSTM层。如果输入嵌入维度是512,编码器输出的维度是多少?512*2**5


报纸的链接:

不太清楚。不幸的是,上述论文中的图1有点误导。并不是如图所示,六个编码层是并行的,而是这些层是连续的,这意味着前一层的隐藏状态/输出在下一层中用作输入

这一点,以及输入(嵌入)维度不是LSTM层的输出维度的事实(事实上,它是
2*隐藏大小
)将输出维度更改为:
2*隐藏大小
,然后再放入最终投影层,这同样会根据您的规格更改尺寸

我不太清楚add的描述在层中做了什么,但是如果你看看a,它似乎与答案无关。具体来说,观察编码功能基本上是如何实现的

def编码(…):
encode_inputs=self.embed(…)
对于num_层中的l:
prev_输入=编码_输入
encode_inputs=self.n_层(…)
# ...

显然,这里发生了更多的事情,但这说明了网络的基本功能块。

谢谢!参考实现对我很有帮助。如果这是回答你的问题,请考虑把这个问题标记为“完成”。