Stanford nlp 斯坦福分词器下载缺少源代码

Stanford nlp 斯坦福分词器下载缺少源代码,stanford-nlp,Stanford Nlp,斯坦福分词器的下载包,例如。 不包含任何源代码,尽管该网页 建议应该:“下载是一个压缩文件,由模型文件、编译代码和源文件组成”。下载中确实包含build.xml文件,但是缺少src目录意味着ant无法工作(特别是抱怨它找不到预期的src目录)。 而且src似乎是必需的,因为如果不重新编译,尝试使用演示脚本会导致“不支持的主要.次要版本52.0”错误。源代码包含在名为stanford-segmenter-3.5.1-sources.jar的jar文件中。所有这些源代码也包含在更大的CoreNLP包

斯坦福分词器的下载包,例如。 不包含任何源代码,尽管该网页 建议应该:“下载是一个压缩文件,由模型文件、编译代码和源文件组成”。下载中确实包含build.xml文件,但是缺少src目录意味着ant无法工作(特别是抱怨它找不到预期的src目录)。
而且src似乎是必需的,因为如果不重新编译,尝试使用演示脚本会导致“不支持的主要.次要版本52.0”错误。

源代码包含在名为
stanford-segmenter-3.5.1-sources.jar的jar文件中。所有这些源代码也包含在更大的CoreNLP包中,您可以浏览该包的源代码

而且似乎需要src,因为如果不重新编译,尝试使用演示脚本将导致“不受支持的major.minor version 52.0”错误

斯坦福NLP工具版本3.5及更高版本需要Java 8。您需要更新JDK版本或降级到Segmenter 3.4.1(这是与Java 7兼容的最后一个版本)