Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/tensorflow/5.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Tensorflow 可变输入序列长度中填充标记的注意分数_Tensorflow_Keras_Lstm_Recurrent Neural Network_Attention Model - Fatal编程技术网

Tensorflow 可变输入序列长度中填充标记的注意分数

Tensorflow 可变输入序列长度中填充标记的注意分数,tensorflow,keras,lstm,recurrent-neural-network,attention-model,Tensorflow,Keras,Lstm,Recurrent Neural Network,Attention Model,当使用RNN(LSTM/GRU)时,我们传递输入序列长度以限制序列的展开。所以,例如,如果实际序列长度为8,并填充了2个额外的令牌,则第8个令牌的隐藏状态将复制到第9个和第10个令牌 如何计算填充序列长度的注意力分数?第八、第九和第十代币的贡献不相等吗

当使用RNN(LSTM/GRU)时,我们传递输入序列长度以限制序列的展开。所以,例如,如果实际序列长度为8,并填充了2个额外的令牌,则第8个令牌的隐藏状态将复制到第9个和第10个令牌

如何计算填充序列长度的注意力分数?第八、第九和第十代币的贡献不相等吗