Nlp &引用;各位注意:;在seq2seq.embedding_attention_seq2seq of tensorflow中

Nlp &引用;各位注意:;在seq2seq.embedding_attention_seq2seq of tensorflow中,nlp,tensorflow,Nlp,Tensorflow,我是tensorflow的新手,并根据教程尝试实现“seq2seq”模型。我不确定func“Embedded\u attention\u seq2seq”的一个参数“num\u heads”(默认值=1)。它代表什么?我没有在相关的报纸上找到它。你读过任何解码器的源代码,你会知道它代表了关注的数量 有时会有几个注意事项(层次性注意事项),例如中的这一项(如下所示)。 TL;博士第一个是单词,第二个是句子。 请检查此图表: 这就是我们为解码器中的一个单元计算的注意向量的数量吗?如何更改关注的数量?

我是tensorflow的新手,并根据教程尝试实现“seq2seq”模型。我不确定func“Embedded\u attention\u seq2seq”的一个参数“num\u heads”(默认值=1)。它代表什么?我没有在相关的报纸上找到它。

你读过任何解码器的源代码,你会知道它代表了关注的数量

有时会有几个注意事项(层次性注意事项),例如中的这一项(如下所示)。
TL;博士第一个是单词,第二个是句子。
请检查此图表:

这就是我们为解码器中的一个单元计算的注意向量的数量吗?如何更改关注的数量?这就像我们两次运行编码器状态吗?是的,您可以在下面的代码中验证这些状态,尤其是。是的。但我有个问题。如果我们有两个注意点,会发生什么?太好了。因此,如果我们有两个头部,它将使用两个不同的权重集计算注意力,以获取更多信息。在一些论文中,我看到在编码器中使用不同的隐藏层来计算注意。因为这里没有特别提到注意头参数,我认为这是关于使用两个参数集来计算注意。