Tensorflow 可变输入序列长度中填充标记的注意分数
当使用RNN(LSTM/GRU)时,我们传递输入序列长度以限制序列的展开。所以,例如,如果实际序列长度为8,并填充了2个额外的令牌,则第8个令牌的隐藏状态将复制到第9个和第10个令牌 如何计算填充序列长度的注意力分数?第八、第九和第十代币的贡献不相等吗Tensorflow 可变输入序列长度中填充标记的注意分数,tensorflow,keras,lstm,recurrent-neural-network,attention-model,Tensorflow,Keras,Lstm,Recurrent Neural Network,Attention Model,当使用RNN(LSTM/GRU)时,我们传递输入序列长度以限制序列的展开。所以,例如,如果实际序列长度为8,并填充了2个额外的令牌,则第8个令牌的隐藏状态将复制到第9个和第10个令牌 如何计算填充序列长度的注意力分数?第八、第九和第十代币的贡献不相等吗