Nlp 共指消解是否需要NER?

Nlp 共指消解是否需要NER?,nlp,stanford-nlp,named-entity-recognition,Nlp,Stanford Nlp,Named Entity Recognition,。。。还是性别信息足够? 更具体地说,我想知道是否可以减少Stanford Core NLP加载的模型数量,以提取共同引用。我对实际的命名实体识别不感兴趣 谢谢根据EMNLP的论文,该论文描述了使用Stanford CoreNLP打包的coref系统,命名实体标记仅用于以下coref注释过程:精确构造、放松头部匹配和代词 您可以指定要与dcoref.sievepasss配置属性一起使用的过程。如果您想要coreference,但不想使用NER,那么应该能够在不使用NER的情况下运行管道,并指定c

。。。还是性别信息足够? 更具体地说,我想知道是否可以减少Stanford Core NLP加载的模型数量,以提取共同引用。我对实际的命名实体识别不感兴趣


谢谢

根据EMNLP的论文,该论文描述了使用Stanford CoreNLP打包的coref系统,命名实体标记仅用于以下coref注释过程:精确构造、放松头部匹配和代词

您可以指定要与dcoref.sievepasss配置属性一起使用的过程。如果您想要coreference,但不想使用NER,那么应该能够在不使用NER的情况下运行管道,并指定coref系统应该只使用不需要NER标签的注释过程


然而,由此产生的coref注释将受到影响。因此,您可能需要做一些实验,以确定注释质量的降低是否是下游使用注释的问题。

一般来说,是的。首先,您需要命名实体,因为它们充当代词所指的候选对象或目标。许多(大多数?)系统在一个步骤中执行实体识别和类型分类。第二,实体的语义类别(如人、组织、位置)对于构建准确的共指链非常重要