Python TensorFlow 2中tf.contrib.seq2seq.prepare_attention的等效性是什么

Python TensorFlow 2中tf.contrib.seq2seq.prepare_attention的等效性是什么,python,tensorflow,tensorflow2.0,seq2seq,Python,Tensorflow,Tensorflow2.0,Seq2seq,我最近正在编写一些用tensorflow 1.0.1编写的代码,我想让它在tenorflow 2上可用。 我对seq2seq不是很熟悉。 多谢各位 (注意), 注意你的价值观, 注意, 注意(构造)=tf.contrib.seq2seq.prepare(注意)( 注意状态=注意状态, 注意, num\u units=self.decoder\u hidden\u units, ) 据此,tf.contrib.seq2seq.prepare\u attention()更名为tf.contrib.s

我最近正在编写一些用tensorflow 1.0.1编写的代码,我想让它在tenorflow 2上可用。 我对seq2seq不是很熟悉。 多谢各位

(注意),
注意你的价值观,
注意,
注意(构造)=tf.contrib.seq2seq.prepare(注意)(
注意状态=注意状态,
注意,
num\u units=self.decoder\u hidden\u units,
)
据此,
tf.contrib.seq2seq.prepare\u attention()
更名为
tf.contrib.seq2seq.DynamicAttentionWrapper

据此,
DynamicAttentionWrapper
已重命名为
AttentionWrapper

因此,在1.15中,相当于
tf.contrib.seq2seq.prepare\u attention()
的函数是

等价于Tensorflow 2.x中的函数为

请查找此以了解更多信息。

因此,
tf.contrib.seq2seq.prepare\u attention()
被重命名为
tf.contrib.seq2seq.DynamicAttentionWrapper

据此,
DynamicAttentionWrapper
已重命名为
AttentionWrapper

因此,在1.15中,相当于
tf.contrib.seq2seq.prepare\u attention()
的函数是

等价于Tensorflow 2.x中的函数为

有关更多信息,请查找此文件。

可能