Tensorflow 序列长度是否有助于动态rnn的性能?

Tensorflow 序列长度是否有助于动态rnn的性能?,tensorflow,neural-network,recurrent-neural-network,machine-translation,Tensorflow,Neural Network,Recurrent Neural Network,Machine Translation,在中国,他们这样说: 注意句子有不同的长度,为了避免浪费计算,我们通过source sequence length告诉dynamic\n确切的源句子长度 使用此代码: 编码器输出,编码器状态=tf.nn.dynamic\u rnn( 编码器单元,编码器emb inp, 序列长度=源序列长度,时间长度=真) 然而,我正在阅读,上面写着: 参数sequence\u length是可选的,用于复制整个状态 当超过批处理元素的序列长度时,将输出归零。所以这更重要 为了正确性而不是性能 我只是想知道序列

在中国,他们这样说:

注意句子有不同的长度,为了避免浪费计算,我们通过source sequence length告诉dynamic\n确切的源句子长度

使用此代码:
编码器输出,编码器状态=tf.nn.dynamic\u rnn(
编码器单元,编码器emb inp,
序列长度=源序列长度,时间长度=真)

然而,我正在阅读,上面写着:

参数
sequence\u length
是可选的,用于复制整个状态 当超过批处理元素的序列长度时,将输出归零。所以这更重要 为了正确性而不是性能


我只是想知道序列长度是否真的有助于动态网络的性能,比如说,他们做了一些动态扣件?如果有,有什么地方可以让我读到更多关于它的信息吗?非常感谢。

对性能不太确定,但据我所知,至少这是为了帮助您保持状态的准确性。即使它重复执行不必要的(归零)步骤,我的理解是,至少它不会更新归零序列的那些部分的状态。不确定性能,但从我的理解来看,至少它是为了帮助您保持状态的准确性。即使它重复执行不必要的(归零)步骤,我的理解是,至少它不会更新归零序列的那些部分的状态。