Machine learning 两个堆叠LSTM层之间的连接是什么?

Machine learning 两个堆叠LSTM层之间的连接是什么?,machine-learning,deep-learning,lstm,recurrent-neural-network,tf.keras,Machine Learning,Deep Learning,Lstm,Recurrent Neural Network,Tf.keras,问题与此类似,但更多的是实施细节 为简单起见,4个单元和2个单元的结构如何,如下所示 model.add(LSTM(4, input_shape=input_shape, return_sequences=True)) model.add(LSTM(2,input_shape=input_shape)) 因此,我知道LSTM_1的输出长度为4,但接下来的2个单元如何处理这4个输入,它们是否完全连接到下一层节点 我猜它们是完全连接的,但不确定,如下图所示,在 谢谢 不是长度4,而是4个“特征

问题与此类似,但更多的是实施细节

为简单起见,4个单元和2个单元的结构如何,如下所示

model.add(LSTM(4, input_shape=input_shape,  return_sequences=True))
model.add(LSTM(2,input_shape=input_shape))
因此,我知道
LSTM_1
的输出长度为4,但接下来的2个单元如何处理这4个输入,它们是否完全连接到下一层节点

我猜它们是完全连接的,但不确定,如下图所示,在

谢谢

不是长度4,而是4个“特征”

长度在输入形状中,并且永远不会改变,当您向一个LSTM提供常规输入时发生的情况与向另一个LSTM提供LSTM输出时发生的情况完全没有区别

您只需查看模型的摘要即可查看形状并了解发生了什么。您永远不会使用LSTMs更改长度


他们根本不交流。每一个都接受长度维度,并独立于另一个进行重复处理。当一个完成并输出一个张量时,下一个得到张量并按照相同的规则单独处理它

这回答了你的问题吗@ZabirAlNazi Thx,我检查过了,但它仍然不能解释堆叠的LSTM。它说:“当然,你可以将许多层堆叠在彼此之上,不一定都遵循相同的模式,然后创建你自己的模型。”我对此非常感兴趣。如何在层之间传递结果。谢谢谢谢,这很有帮助!这是功能,不是时间步。你能回答我这个问题吗?谢谢!要问一个后续问题,如果您堆叠一组LSTM层,然后再堆叠一些其他层来重新塑造数据,会怎么样?那么,如果您考虑的是一个时间序列,那么在下一个时间步(状态是否在每个LSTM单元内部循环)?@mfgeng,每个LSTM都隐藏在其内部,状态不是输出,不受其他层的影响。