Python PyTorch中的多层双向LSTM/GRU合并模式

Python PyTorch中的多层双向LSTM/GRU合并模式,python,pytorch,lstm,bidirectional,Python,Pytorch,Lstm,Bidirectional,我试图将我的代码从Keras复制到PyTorch中,以比较多层双向LSTM/GRU模型在cpu和gpu上的性能。我想研究不同的合并模式,例如“concat”(这是PyTorch中的默认模式)、sum、mul、average。合并模式定义如何将向前和向后方向的输出传递到下一层 在Keras中,这只是多层双向LSTM/GRU模型的合并模式的一个参数更改,PyTorch中是否也存在类似的情况?一种选择是在每一层之后手动执行合并模式操作并传递到下一层,但我想研究性能,所以我想知道是否还有其他有效的方法

我试图将我的代码从Keras复制到PyTorch中,以比较多层双向LSTM/GRU模型在cpu和gpu上的性能。我想研究不同的合并模式,例如“concat”(这是PyTorch中的默认模式)、sum、mul、average。合并模式定义如何将向前和向后方向的输出传递到下一层

在Keras中,这只是多层双向LSTM/GRU模型的合并模式的一个参数更改,PyTorch中是否也存在类似的情况?一种选择是在每一层之后手动执行合并模式操作并传递到下一层,但我想研究性能,所以我想知道是否还有其他有效的方法

谢谢