Nlp word2vec上的负向量是什么意思?

Nlp word2vec上的负向量是什么意思?,nlp,word2vec,word-embedding,Nlp,Word2vec,Word Embedding,我正在研究旅游评论,并使用word2vec分析评论。然而,当我向我的顾问展示我的成果时,他说我有很多向量值为负值的单词,只有向量值为正值的单词才被认为是合乎逻辑的 这些负值意味着什么?有没有办法确保我在分析中得到的所有向量值都是正的?而其他一些单词建模算法实际上会将单词建模到维度为0或正的空间中,并且单个正维度可能对人类有明显的意义,而原始的情况并非如此,标准的“word2vec”算法 任何单词2VEC单词向量的正/负性——在特定维度或净大小上——都没有很强的意义。有意义的词语将从原点向各个方向

我正在研究旅游评论,并使用word2vec分析评论。然而,当我向我的顾问展示我的成果时,他说我有很多向量值为负值的单词,只有向量值为正值的单词才被认为是合乎逻辑的


这些负值意味着什么?有没有办法确保我在分析中得到的所有向量值都是正的?

而其他一些单词建模算法实际上会将单词建模到维度为0或正的空间中,并且单个正维度可能对人类有明显的意义,而原始的情况并非如此,标准的“word2vec”算法

任何单词2VEC单词向量的正/负性——在特定维度或净大小上——都没有很强的意义。有意义的词语将从原点向各个方向展开。该空间中与可识别类别松散相关的方向或邻域可能出现在任何地方,并相对于任何维度轴倾斜


(这里有一个相关的算法确实使用了非负约束。但大多数对“word2vec”的引用都是指经典的方法,其中维度有效地覆盖了所有实相。)

而其他一些单词建模算法实际上将单词建模到维度为0或正的空间中,个人的积极维度可能对人类有明显的意义,而原始的规范“word2vec”算法并非如此

任何单词2VEC单词向量的正/负性——在特定维度或净大小上——都没有很强的意义。有意义的词语将从原点向各个方向展开。该空间中与可识别类别松散相关的方向或邻域可能出现在任何地方,并相对于任何维度轴倾斜

(这里有一个使用非负约束的相关算法——但大多数对“word2vec”的引用都是指经典方法,其中维度有效地覆盖所有实数。)