Stanford nlp RNTN:在融合初期停止培训?

Stanford nlp RNTN:在融合初期停止培训?,stanford-nlp,sentiment-analysis,Stanford Nlp,Sentiment Analysis,我目前正在培训一些情绪分析模型。在默认设置下,训练运行400次迭代,这需要很长时间。是否有办法提前停止培训,例如,如果错误没有变小?是否有允许此操作的代码 在Socher等人2013年的论文中,有一句话指出RNTN在几个小时的训练后收敛。我可以利用这个吗 编辑以澄清: 我所指的论文是Socher等人的“情感树库上语义成分的递归深层模型”,EMNLP 2013。我提到的RNTN是斯坦福CoreNLP软件包的一部分 要重新措辞并澄清我的问题: 如何使edu.stanford.nlp.thousio

我目前正在培训一些情绪分析模型。在默认设置下,训练运行400次迭代,这需要很长时间。是否有办法提前停止培训,例如,如果错误没有变小?是否有允许此操作的代码

在Socher等人2013年的论文中,有一句话指出RNTN在几个小时的训练后收敛。我可以利用这个吗


编辑以澄清:

我所指的论文是Socher等人的“情感树库上语义成分的递归深层模型”,EMNLP 2013。我提到的RNTN是斯坦福CoreNLP软件包的一部分

要重新措辞并澄清我的问题:


如何使
edu.stanford.nlp.thousion.thousiontraining
在模型“足够好”(对于某些标准)时停止训练,而不是经历所有400次迭代?

不幸的是,代码无法自动检测何时不再改善,以便提前终止运行。但是,它确实输出中间模型。如果您使用开发集进行训练,则可以在训练结束时保留开发分数最高的模型。

您的问题非常不清楚。这是什么纸?你能给我们看一下它的相关部分并试着重新表述一下你想要实现的目标吗?@Magnilex谢谢你的提问。斯坦福nlp标签由斯坦福nlp小组跟踪,问题将向其明确。当然,这是一个通用的论坛,所以我添加了一些急需的澄清。@MichaelHaas,我在源代码中没有看到任何这样的选项(只有限制迭代次数/总训练时间的选项)。不过,我可能遗漏了什么。。你可能会更成功地直接联系理查德·索舍,他管理着代码,但现在已经离开了斯坦福。@JonGauthier谢谢,我给他发了一封电子邮件。