Nlp 二元向量

Nlp 二元向量,nlp,word2vec,word-embedding,Nlp,Word2vec,Word Embedding,我想使用word2vec工具为文档构建word嵌入。我知道如何找到对应于单个单词(单字)的向量嵌入。现在,我想找到一个二元图的向量。可以使用word2vec吗?如果是,怎么做?下面的代码片段将为您提供一个二元图的向量表示。请注意,要转换为向量的bigram需要有下划线,而不是单词之间的空格,例如bigram2vec(unigrams,“this report”)是错误的,它应该是bigram2vec(unigrams,“this report”)。有关生成Unigram的更多详细信息,请参见ge

我想使用word2vec工具为文档构建word嵌入。我知道如何找到对应于单个单词(单字)的向量嵌入。现在,我想找到一个二元图的向量。可以使用word2vec吗?如果是,怎么做?

下面的代码片段将为您提供一个二元图的向量表示。请注意,要转换为向量的bigram需要有下划线,而不是单词之间的空格,例如
bigram2vec(unigrams,“this report”)
是错误的,它应该是
bigram2vec(unigrams,“this report”)
。有关生成Unigram的更多详细信息,请参见
gensim.models.word2vec.word2vec


从gensim.models导入word2vec
def bigram2vec(Unigram,bigram到搜索):
bigrams=短语(单位格)
model=word2vec.word2vec(bigrams[unigrams])
如果在model.vocab.keys()中搜索bigram\u to\u:
返回模型[bigram\u to\u search]
其他:
一无所获

来自gensim.models导入Word2Vec,短语
如果给出的答案为您的问题提供了解决方案,请接受它以结束问题或评论为什么不起作用!