Tensorflow 参数单位为N的LSTM是否等同于单位为1的N个并行LSTM?

Tensorflow 参数单位为N的LSTM是否等同于单位为1的N个并行LSTM?,tensorflow,keras,parameters,lstm,recurrent-neural-network,Tensorflow,Keras,Parameters,Lstm,Recurrent Neural Network,我现在开始使用神经网络,特别是时间序列模型的LSTM 我读了一篇论文(),其中有人使用并行LSTM,然后将其输出合并。现在我想知道如何实现这种类型的网络。据我所知,Keras中LSTM构造函数中的参数“units”是输出的大小,因为最后是元素相乘。但是,我不确定具有N个单元的Keras LSTM层是否与具有N个LSTM的层相同,每个层具有1个单元 换句话说:想象两个LSTM(一个有N个单位,一个有1个单位),它们获得相同的输入并产生output1(长度N)和output2(长度1)。如果相应地分

我现在开始使用神经网络,特别是时间序列模型的LSTM

我读了一篇论文(),其中有人使用并行LSTM,然后将其输出合并。现在我想知道如何实现这种类型的网络。据我所知,Keras中LSTM构造函数中的参数“units”是输出的大小,因为最后是元素相乘。但是,我不确定具有N个单元的Keras LSTM层是否与具有N个LSTM的层相同,每个层具有1个单元

换句话说:想象两个LSTM(一个有N个单位,一个有1个单位),它们获得相同的输入并产生output1(长度N)和output2(长度1)。如果相应地分配了权重,一个单位为N+1且输入相同的LSTM是否会产生输出y=[y_1,y_2]


如果情况并非如此,您如何在一层中使用多个LSTM,并使用顺序模型使用KERA?在本文中,基本上他将LSTM的k层的输出进行组合,每个层都带有n_k个单元。 要复制这是keras,请在每层中写入k层LSTM和n_k单位。 只有一个单元的LSTM层是无用的,因为内存在LSTM单元之间传播,用于顺序输入。一个单位的LSTM只处理一个输入值,其他值保持不变。
所以,回答你的问题,不,两者不一样。事实上,对于所有输入而言,N层1个单位相当于第一次输入上的一个单元格。

谢谢您的回答。这两个版本不一样是有道理的。但是如果我用model.add(LSTM(..)添加k层LSTM,它们将是串联的。我必须使用函数式API来复制他的模型,这是对的吗?函数式API是一种很好的方法,可以减少不必要的架构复制,并通过再培训找到相同的权重。我没有完全阅读这篇文章,但从架构的角度来看,似乎可以使用Keras中的函数API在n次迭代的输出上调用模型。我建议您单独提出一个问题,询问有无功能API的实现建议,以获得其他人的建议。:)