tensorflow中tf.nn.dynamic和tf.nn.raw的区别是什么?

tensorflow中tf.nn.dynamic和tf.nn.raw的区别是什么?,tensorflow,deep-learning,Tensorflow,Deep Learning,我通过了。在最后一块中,它说动态函数不能用于计算注意力。但我不明白的是,我们所需要的只是解码器的隐藏状态,以便发现需要注意的地方,这将通过编码器符号解决 编码器-解码器上下文中的注意机制意味着解码器在每个时间步“注意”编码器的“有用”部分。这实现为,例如,平均编码器的输出,并在给定的时间步长将该值(称为上下文)馈送到解码器 dynamic\u rnn计算所有时间步长上LSTM单元的输出,并给出最终值。因此,无法告诉模型时间步长t的单元格状态不仅取决于前一单元格的输出和输入,还取决于其他信息,如上

我通过了。在最后一块中,它说动态函数不能用于计算注意力。但我不明白的是,我们所需要的只是解码器的隐藏状态,以便发现需要注意的地方,这将通过编码器符号解决

编码器-解码器上下文中的注意机制意味着解码器在每个时间步“注意”编码器的“有用”部分。这实现为,例如,平均编码器的输出,并在给定的时间步长将该值(称为上下文)馈送到解码器

dynamic\u rnn
计算所有时间步长上LSTM单元的输出,并给出最终值。因此,无法告诉模型时间步长
t
的单元格状态不仅取决于前一单元格的输出和输入,还取决于其他信息,如上下文。您可以使用
raw\rnn
在编码器或解码器LSTM的每个时间步控制计算

如果我理解正确的话,在本教程中,作者在每个时间步将地面真实值输入作为输入提供给解码器。然而,这不是通常的做法。通常,您希望在时间
t
将解码器的输出作为时间
t+1
的输入馈送到解码器。简言之,解码器在每个时间步的输入是可变的,而在
dynamic\n
中是预定义的


有关更多技术细节,请参阅:

编码器-解码器上下文中的注意机制意味着解码器在每个时间步“注意”编码器的“有用”部分。这实现为,例如,平均编码器的输出,并在给定的时间步长将该值(称为上下文)馈送到解码器

dynamic\u rnn
计算所有时间步长上LSTM单元的输出,并给出最终值。因此,无法告诉模型时间步长
t
的单元格状态不仅取决于前一单元格的输出和输入,还取决于其他信息,如上下文。您可以使用
raw\rnn
在编码器或解码器LSTM的每个时间步控制计算

如果我理解正确的话,在本教程中,作者在每个时间步将地面真实值输入作为输入提供给解码器。然而,这不是通常的做法。通常,您希望在时间
t
将解码器的输出作为时间
t+1
的输入馈送到解码器。简言之,解码器在每个时间步的输入是可变的,而在
dynamic\n
中是预定义的


有关更多技术细节,请参阅:

编码器的隐藏状态用于注意机制good one。这就像我们部落在五月玩的原始RNN。新的注意、编码方法等,对吗?编码器的隐藏状态被用于注意机制中。这就像我们部落在五月玩的原始RNN。新的注意事项、编码方法等,对吗?