Nlp 如何根据句子中单词的意思找到特定的WordNet语法集?
我试图使用NLTK Python库生成特定句子的所有同义词。我的想法是进行词性标注,然后根据词性标注生成句子中所有单词的同义词,然后递归地创建所有可能的组合以创建“同义词句子” 目前,我最大的问题是,获取某个单词同义词的代码生成该单词所有可能含义的同义词(即该单词所属的所有语法集的引理) 例如,在句子“给我你的号码”中,“号码”一词可能意味着“电话号码”,我只想得到“电话号码”和“电话号码”等同义词,而不想得到“号码”的其他同义词,如“问题”和“数字” 我感兴趣的是,是否有任何方法可以获得句子中单词的语法集(即意义),以便仅将该特定语法集中的单词作为同义词。找到一种减少一组可能的同义词的方法也会很有帮助 这是我的密码:Nlp 如何根据句子中单词的意思找到特定的WordNet语法集?,nlp,nltk,wordnet,synonym,synset,Nlp,Nltk,Wordnet,Synonym,Synset,我试图使用NLTK Python库生成特定句子的所有同义词。我的想法是进行词性标注,然后根据词性标注生成句子中所有单词的同义词,然后递归地创建所有可能的组合以创建“同义词句子” 目前,我最大的问题是,获取某个单词同义词的代码生成该单词所有可能含义的同义词(即该单词所属的所有语法集的引理) 例如,在句子“给我你的号码”中,“号码”一词可能意味着“电话号码”,我只想得到“电话号码”和“电话号码”等同义词,而不想得到“号码”的其他同义词,如“问题”和“数字” 我感兴趣的是,是否有任何方法可以获得句子中
word_synonyms=set([])
for syn in wn.synsets(word, pos = pos_tag):
for lm in syn.lemmas():
word_synonyms.add(" ".join([lemma_el for lemma_el in lm.name().split('_')]))