Dependencies 斯坦福依赖解析器Jython

Dependencies 斯坦福依赖解析器Jython,dependencies,nlp,jython,Dependencies,Nlp,Jython,我正在使用来自的代码 生成依赖项解析 导入系统 sys.path.append('/path/to/jar/stanford-parser-2008-10-26.jar') 从java.io导入CharArrayReader 从edu.stanford.nlp导入* lp=parser.lexparser.LexicalizedParser('/path/to/englishPCFG.ser.gz') tlp=树。PennTreebankLanguagePack() lp.setOptionFl

我正在使用来自的代码 生成依赖项解析

导入系统 sys.path.append('/path/to/jar/stanford-parser-2008-10-26.jar') 从java.io导入CharArrayReader 从edu.stanford.nlp导入* lp=parser.lexparser.LexicalizedParser('/path/to/englishPCFG.ser.gz') tlp=树。PennTreebankLanguagePack() lp.setOptionFlags([“-maxLength”、“80”、“-RetainMPSubcategories”]) 语句='我最喜欢的函数式编程功能之一\ 语言就是你可以像对待值一样对待函数。” toke=tlp.getTokenizerFactory().getTokenizer(CharArrayReader(句子)); wordlist=toke.tokenize() if(lp.parse(wordlist)): parse=lp.getBestParse() gsf=tlp.grammaticStructureFactory() gs=gsf.newgrammaticstructure(解析) tdl=gs.typedDependenciesCollapsed() 打印parse.toString() 打印tdl 它给出了一个包含以下类型元组的列表:

<type 'edu.stanford.nlp.trees.TypedDependency'>

如何访问各个元组以使用依赖项分析?

TypedDependence类的文档可在上找到。我无法用我的Java版本加载模型(需要5个,但我有7个)

这应该给你一个开始:

for type_dep in tdl:
    print "Governor word:", type_dep.gov().toString() # .gov() is an IndexedWord
    print "Dependent word:", type_dep.dep().toString() # .dep() is an IndexedWord
    print "Relation:", type_dep.reln().toString() # .reln() is a GrammaticalRelation
    print