Stanford nlp 斯坦福解析器模型

Stanford nlp 斯坦福解析器模型,stanford-nlp,Stanford Nlp,StanfordCorenlp包含几个解析英语句子的模型 英国人 英语 english_UD(depparse注释器的默认值) 英国人 英国人 englishPCFG(解析注释器的默认值) 英语无壳 wsjRNN WSJ4因素 wsjPCFG 以下文件中有一些比较: 我无法找到所有模型的完整描述和比较。 它存在于任何地方吗?如果没有,我认为值得创建。我不能给出完整的列表(也许Chris会插话?),但我的理解是这些模型是: englishSR:shift-reduce模型在各种标

StanfordCorenlp包含几个解析英语句子的模型

  • 英国人
  • 英语
  • english_UD(depparse注释器的默认值)
  • 英国人
  • 英国人
  • englishPCFG(解析注释器的默认值)
  • 英语无壳
  • wsjRNN
  • WSJ4因素
  • wsjPCFG
以下文件中有一些比较:

我无法找到所有模型的完整描述和比较。 它存在于任何地方吗?如果没有,我认为值得创建。

我不能给出完整的列表(也许Chris会插话?),但我的理解是这些模型是:

  • englishSR
    :shift-reduce模型在各种标准树状结构上进行训练,并使用斯坦福大学的一些手工标注数据。这是我们拥有的最快、最精确的模型,但该模型的负载非常大

  • english\u SD
    :斯坦福依赖项的NN依赖项解析器模型。不赞成使用
    english\u UD
    ——通用依赖模型

  • english\u UD
    :通用依赖项的NN依赖项解析器模型。这是获取依赖关系树的最快、最准确的方法,但它不会提供选区分析

  • englishHRNN
    :混合PCFG+神经选区解析器模型。比shift-reduce模型以外的任何选区分析器都更精确,但速度也明显较慢

  • englishFactored
    :不是100%确定这是什么,但我的印象是,无论是准确性还是速度,它都介于
    englishPCFG
    englishRNN
    之间

  • englishPCFG
    :用于选区分析的常规旧PCFG模型。加载速度快,比除shift-reduce模型以外的任何选区模型都快,但按照现代标准,准确度也一般。尽管如此,这是一个很好的违约

  • englishPCFG.caseless
    :PCFG模型的无壳版本

我假设《华尔街日报》*《华尔街日报》*《华尔街日报》*《华尔街日报》>《华尔街日报》*《华尔街日报》*《华尔街日报》*《华尔街日报》>《华尔街日报》*《华尔街日报》*《华尔街日报》>《华尔街日报》*《华尔街日报》*《华尔街日报》*《华尔街日报》*《华尔街日报

要帮助根据速度、精度和模型使用的基本内存选择正确的模型,请执行以下操作:

  • 快速:10倍,准确,高记忆:英语HSR

  • 中等:1x,正常精度,低内存:englishPCFG

  • 慢:~0.25倍,准确,低内存:englishRNN

  • 快速:100倍,准确,低内存,仅依赖解析:英语