Machine learning 如何搜索Word2Vec或手套嵌入以按语义关系查找单词

Machine learning 如何搜索Word2Vec或手套嵌入以按语义关系查找单词,machine-learning,nlp,keras,word2vec,word-embedding,Machine Learning,Nlp,Keras,Word2vec,Word Embedding,显示单词嵌入强度的常见示例是显示一些单词之间的语义关系,例如king:queen=male:female。如何发现这种类型的关系?这是通过某种基于几何聚类的可视化实现的吗?任何一个指针都会被欣赏。如果“发现”是指监督学习,那么其中包含许多已经提取的关系,如“国家中的城市”、“首都世界”、“最高级”等 该数据集是对词向量进行内在评估的常用选择 在完成单词向量类比时。另见 有效的无监督的提取这些关系可能很棘手。一个简单的算法需要O(n2)时间和内存,其中n是词汇表中的单词数,这是巨大的。一般来说

显示单词嵌入强度的常见示例是显示一些单词之间的语义关系,例如
king:queen=male:female
。如何发现这种类型的关系?这是通过某种基于几何聚类的可视化实现的吗?任何一个指针都会被欣赏。

如果“发现”是指监督学习,那么其中包含许多已经提取的关系,如“国家中的城市”、“首都世界”、“最高级”等

该数据集是对词向量进行内在评估的常用选择 在完成单词向量类比时。另见

有效的无监督的提取这些关系可能很棘手。一个简单的算法需要O(n2)时间和内存,其中n是词汇表中的单词数,这是巨大的。一般来说,这个问题归结为高效的索引构造

但是,如果您只想自己训练它并使用单词嵌入,您可以简单地使用:

model=gensim.models.word2vec.word2vec(句子=句子,大小=100,窗口=4,
工人数=5,sg=1,最小计数=20,iter=10)
word_vectors=model.wv
相似=词向量。最相似(正=['woman','king',],负=['man'])
#[(皇后,0.7188869714736938),(皇后,0.6739267110824585)。。。
请注意,您需要一个大的语料库,例如。

也许它提供了一个最类似的方法可以为您完成这项工作。