Stanford nlp 使用Stanford CoreNLP的德语解析器,依赖项为空

Stanford nlp 使用Stanford CoreNLP的德语解析器,依赖项为空,stanford-nlp,Stanford Nlp,我试着用斯坦福CoreNLP和德语模型3.6版解析德语句子。 网站上说德语支持依赖项解析,但当我解析一个句子时,依赖项总是空的 我使用deepdive中的scala脚本运行NLP,并具有以下属性: val germanProps = new Properties() germanProps.put("annotators", "tokenize, ssplit, pos, ner, parse") germanProps.put("tokenize.language", "de") german

我试着用斯坦福CoreNLP和德语模型3.6版解析德语句子。 网站上说德语支持依赖项解析,但当我解析一个句子时,依赖项总是空的

我使用deepdive中的scala脚本运行NLP,并具有以下属性:

val germanProps = new Properties()
germanProps.put("annotators", "tokenize, ssplit, pos, ner, parse")
germanProps.put("tokenize.language", "de")
germanProps.put("pos.model", "edu/stanford/nlp/models/pos-tagger/german/german-hgc.tagger")
germanProps.put("ner.model", "edu/stanford/nlp/models/ner/german.hgc_175m_600.crf.ser.gz")
germanProps.put("ner.applyNumericClassifiers", "false")
germanProps.put("ner.useSUTime", "false")
germanProps.put("parse.model", "edu/stanford/nlp/models/lexparser/germanFactored.ser.gz")

我的配置有问题吗?或者为什么德语语法分析器不工作?

您必须使用NN依赖语法分析器来获取德语依赖语法分析器

信息如下:

此外,您还需要在此处提供德国型号的jar:


非常感谢!所以基本上,StanfordCoreNLP-derman.properties应该看起来像“annotators=tokenize、ssplit、pos、ner、deparse”和“depparse.model=edu/stanford/nlp/models/parser/nndep/UD_derman.gz”以避免混淆?因为在网站上,它说解析注释“提供了完整的语法分析,同时使用了成分和依赖关系表示。”这就是为什么我认为我可以用它获得依赖关系。是的,这些应该是正确的设置。基本上没有人实现过将德语选区解析转换为依赖解析(例如,这是为英语实现的),但是最近我们为德语的纯依赖解析构建了一些NN模型。