Nlp 变压器模型中的位置嵌入-是否更改了单词';什么意思?
我正在读变压器的论文,位置嵌入让我想知道一件事:Nlp 变压器模型中的位置嵌入-是否更改了单词';什么意思?,nlp,transformer,Nlp,Transformer,我正在读变压器的论文,位置嵌入让我想知道一件事: 假设单词“cat”经过预训练嵌入单词vector[2,3,1,4]。如果我们使用位置编码将向量转换为一个新的向量,如[3,1,5,2],它是否也会改变单词2vec矩阵中的含义?由于语料库很大,值的细微变化也会改变其含义。word2vec和Transformer对待标记的方式完全不同 word2vec是上下文无关的,这意味着bank始终是word2vec矩阵中的某个固定向量,换句话说,bank的向量不依赖于标记在句子中的位置 另一方面,Transf
假设单词“cat”经过预训练嵌入单词vector
[2,3,1,4]
。如果我们使用位置编码将向量转换为一个新的向量,如[3,1,5,2]
,它是否也会改变单词2vec矩阵中的含义?由于语料库很大,值的细微变化也会改变其含义。word2vec和Transformer对待标记的方式完全不同
word2vec是上下文无关的,这意味着bank
始终是word2vec矩阵中的某个固定向量,换句话说,bank
的向量不依赖于标记在句子中的位置
另一方面,Transformer作为输入接收托克斯的嵌入和位置嵌入,为令牌添加位置感。否则,它将文本作为一袋单词而不是一个序列