Stanford nlp edu.stanford.nlp.io.RuntimeIOException:无法连接到服务器

Stanford nlp edu.stanford.nlp.io.RuntimeIOException:无法连接到服务器,stanford-nlp,stanford-nlp-server,Stanford Nlp,Stanford Nlp Server,我正在尝试使用CoreNLP服务器注释多个句子。然而,如果我试图用太多的句子来表达这一点,我会得到: Exception in thread "Thread-48" edu.stanford.nlp.io.RuntimeIOException: Could not connect to server: 192.168.108.60:9000 at edu.stanford.nlp.pipeline.StanfordCoreNLPClient$2.run(StanfordCoreNLPCl

我正在尝试使用CoreNLP服务器注释多个句子。然而,如果我试图用太多的句子来表达这一点,我会得到:

Exception in thread "Thread-48" edu.stanford.nlp.io.RuntimeIOException: Could not connect to server: 192.168.108.60:9000
    at edu.stanford.nlp.pipeline.StanfordCoreNLPClient$2.run(StanfordCoreNLPClient.java:393)
Caused by: java.io.IOException: Server returned HTTP response code: 500 for URL: http://192.168.108.60:9000?properties=%7B+%22inputFormat%22%3A+%22serialized%22%2C+%22outputSerializer%22%3A+%22edu.stanford.nlp.pipeline.ProtobufAnnotationSerializer%22%2C+%22inputSerializer%22%3A+%22edu.stanford.nlp.pipeline.ProtobufAnnotationSerializer%22%2C+%22annotators%22%3A+%22tokenize%2C+ssplit%2C+pos%2C+lemma%2C+ner%2C+parse%2C+dcoref%22%2C+%22outputFormat%22%3A+%22serialized%22+%7D
    at sun.net.www.protocol.http.HttpURLConnection.getInputStream0(HttpURLConnection.java:1840)
    at sun.net.www.protocol.http.HttpURLConnection.getInputStream(HttpURLConnection.java:1441)
    at edu.stanford.nlp.pipeline.StanfordCoreNLPClient$2.run(StanfordCoreNLPClient.java:381)
如果我只运行了10或20句话,一切都正常,但随着句子数量的增加,服务器似乎崩溃了,我达到了超时限制或什么的-至少这是我对此的唯一解释

StanfordCoreNLPClient coreNlp=新的StanfordCoreNLPClient(props,“192.168.108.60”,9000);
// ..
对于(int windowSize:windowSizeList){
Map aspectMap=newhashmap();
for(int i=0;i
如何解决此问题


编辑:好的,我发现有一个超时选项:

props.setProperty(“超时”,“50000”);

但这没有帮助。不管怎么说,它失败了——只是需要更长的时间。

我也有类似的问题。在我的例子中,我想使用共指解析,并通过使用以下注释器来解决:tokenize、ssplit、pos、引理、ner、depparse、提纲、coref

  • 或者像下面这样的命令行:
java-Xmx5g-cp stanford-corenlp-3.6.0.jar:stanford-corenlp-models-3.6.0.jar:*edu.stanford.nlp.pipeline.StanfordCoreNLP-annotators tokenize、ssplit、pos、引理、ner、depparse、提纲、coref-file-example\u file.txt


原因是它的效率更高(相对于速度而言):

我也有类似的问题。在我的例子中,我想使用共指解析,并通过使用以下注释器来解决:tokenize、ssplit、pos、引理、ner、depparse、提纲、coref

  • 或者像下面这样的命令行:
java-Xmx5g-cp stanford-corenlp-3.6.0.jar:stanford-corenlp-models-3.6.0.jar:*edu.stanford.nlp.pipeline.StanfordCoreNLP-annotators tokenize、ssplit、pos、引理、ner、depparse、提纲、coref-file-example\u file.txt


原因是它更高效(相对于速度而言):

您使用的是3.6.0版本,还是从GitHub编译?从3.6.0开始,有一系列的稳定性修复程序可能会对此有所帮助。您是使用3.6.0版本,还是从GitHub编译?从3.6.0开始,有一系列的稳定性修复程序可以帮助实现这一点。