Nlp 如何合并TurboParser而不是MaltParser,以改进在线演示的结果?

Nlp 如何合并TurboParser而不是MaltParser,以改进在线演示的结果?,nlp,srl,Nlp,Srl,我已经在LinuxMint18.1上成功安装了Semafor,我可以运行它。但是我从我的版本中得到的结果与在线演示截然不同。我意识到在线演示使用的是TurboParser,而不是MaltPraser。我曾多次尝试下载TurboParser的模型,但远程主机以100KB/s的速度发送数据,这太糟糕了,而我可以从其他网站以大约1MB/s的速度下载数据!但我继续下载,最终收到了一个损坏的文件。现在我有一个要求和一个问题: 任何人都可以将模型上传到更好的主机上吗?也许是谷歌硬盘吧 如何将TurboPar

我已经在LinuxMint18.1上成功安装了Semafor,我可以运行它。但是我从我的版本中得到的结果与在线演示截然不同。我意识到在线演示使用的是TurboParser,而不是MaltPraser。我曾多次尝试下载TurboParser的模型,但远程主机以100KB/s的速度发送数据,这太糟糕了,而我可以从其他网站以大约1MB/s的速度下载数据!但我继续下载,最终收到了一个损坏的文件。现在我有一个要求和一个问题:

  • 任何人都可以将模型上传到更好的主机上吗?也许是谷歌硬盘吧
  • 如何将TurboParser合并到Semafor中?我没能弄明白,因为我没能下载模型