Nlp NLTK NER:持续学习

Nlp NLTK NER:持续学习,nlp,nltk,named-entity-recognition,reinforcement-learning,Nlp,Nltk,Named Entity Recognition,Reinforcement Learning,我一直在尝试使用NLTK的NER特性。我想从文章中提取这样的实体。我知道这样做并不完美,但我想知道在手动标记网元之间是否有人为干预,是否会有所改进 如果是,是否可以使用NLTK中的当前模型持续培训模型。(半监督训练)nltk中提供的普通分块器内部使用ACE语料库上训练的最大熵分块器。因此,不可能识别日期或时间,除非您使用自己的分类器和数据对其进行训练(这是一项非常细致的工作) 你可以参考这个来执行同样的操作 此外,nltk_contrib中还有一个名为的模块,可以帮助您满足您的需求 如果您有兴趣

我一直在尝试使用NLTK的NER特性。我想从文章中提取这样的实体。我知道这样做并不完美,但我想知道在手动标记网元之间是否有人为干预,是否会有所改进


如果是,是否可以使用NLTK中的当前模型持续培训模型。(半监督训练)

nltk中提供的普通分块器内部使用ACE语料库上训练的最大熵分块器。因此,不可能识别日期或时间,除非您使用自己的分类器和数据对其进行训练(这是一项非常细致的工作)

你可以参考这个来执行同样的操作

此外,nltk_contrib中还有一个名为的模块,可以帮助您满足您的需求


如果您有兴趣在Java中更好地执行相同的操作,请仔细研究,它是StanfordCorenlp的一部分

简短的回答,不是真的你知道其他支持持续培训的工具吗?对不起,我不知道,但肯定在
NLTK
中,它不支持手动注释,直到有人自愿为
NLTK
编写
brat
GUI包装。NLP中的人机交互总是很难编码,因为它通常需要某种GUI。