Tensorflow:注意力解码器

Tensorflow:注意力解码器,tensorflow,neural-network,deep-learning,Tensorflow,Neural Network,Deep Learning,在Tensorflow 1.0中,seq2seq API发生了很大变化,不再与以前的seq2seq示例兼容。特别是,我发现注意力解码器的构建更具挑战性:旧的注意力解码器功能已被删除,而新的API希望用户在训练和预测期间提供动态注意力解码器两个不同的注意力功能,这反过来又依赖于prepare\u attention功能 有没有人知道如何构建一个注意力解码器,只提供输入和最终编码器状态的例子?这个带有注意力模型的seq2seq可以将数字发音转换为数字,例如“127”。看看是否有帮助 我一直在跟踪TF

在Tensorflow 1.0中,seq2seq API发生了很大变化,不再与以前的seq2seq示例兼容。特别是,我发现注意力解码器的构建更具挑战性:旧的
注意力解码器
功能已被删除,而新的API希望用户在训练和预测期间提供
动态注意力解码器
两个不同的注意力功能,这反过来又依赖于
prepare\u attention
功能


有没有人知道如何构建一个注意力解码器,只提供输入和最终编码器状态的例子?

这个带有注意力模型的seq2seq可以将数字发音转换为数字,例如“127”。看看是否有帮助


我一直在跟踪TF的seq2seq库的状态,他们声称在v1.1中可以使用带有教程的API,所以请耐心等待。这里是TF.contrib.legacy_seq2seq.attention_解码器,带有旧的attention_解码器或?@Cospel是的,它不推荐使用,我想换一个更稳定的API