Tensorflow 如何';负采样';提高word2vec中的单词表示质量?

Tensorflow 如何';负采样';提高word2vec中的单词表示质量?,tensorflow,nlp,deep-learning,word2vec,embedding,Tensorflow,Nlp,Deep Learning,Word2vec,Embedding,“word2vec”中的负采样明显提高了训练速度 但是为什么“会使单词的表示更加准确。” 我没有找到相关的讨论或细节。你能帮我个忙吗?如果没有它出现的全部背景,很难描述该主张的作者可能是什么意思。例如,单词向量可以针对不同的任务进行优化,使单词向量更好地用于一项任务的相同选项可能会使另一项任务的单词向量更差 自Google最初的论文和代码发布以来,一种流行的评估单词向量的方法是一组单词类比问题。这些给出了一个很好的可重复的摘要“准确度”百分比,因此作者可能意味着对于特定的训练语料库,在这个特定的

word2vec”中的负采样明显提高了训练速度

但是为什么“会使单词的表示更加准确。


我没有找到相关的讨论或细节。你能帮我个忙吗?

如果没有它出现的全部背景,很难描述该主张的作者可能是什么意思。例如,单词向量可以针对不同的任务进行优化,使单词向量更好地用于一项任务的相同选项可能会使另一项任务的单词向量更差

自Google最初的论文和代码发布以来,一种流行的评估单词向量的方法是一组单词类比问题。这些给出了一个很好的可重复的摘要“准确度”百分比,因此作者可能意味着对于特定的训练语料库,在这个特定的问题上,在保持其他事物不变的情况下,负采样模式具有更高的“准确度”分数

但这并不意味着在任何语料库中,或在某些任务的质量或准确性的任何其他下游评估中,它总是更好

具有较大语料库的项目,尤其是较大的词汇表(更独特的单词),倾向于使用负采样模式。当词汇表变大时,分层softmax替代模式变慢,而负采样模式则不会

而且,拥有一个庞大、多样的语料库,以及所有有趣单词的许多细微不同的用法示例,是真正好的单词向量的最重要贡献者

因此,只需在有限的训练时间内管理较大的语料库,负采样就可以被视为间接地改善了词向量,因为语料库大小是一个非常重要的因素