Stanford nlp CoreNLP路线图

Stanford nlp CoreNLP路线图,stanford-nlp,Stanford Nlp,CoreNLP的路线图尚不清楚。是否处于维护模式?我很高兴看到斯坦福德NLP受到重视,但缺乏对方向的了解令人担忧。如果新的神经模型更好,我们会看到它们被包装在Java CoreNLP API中吗?CoreNLP尚未处于维护模式。我们将在今年夏天进行一些非常重要(并且破坏兼容性)的更改。除此之外,我们将转换为使用UDv2(从当前的UDv1),我们将对英语和其他语言进行标记化更改,以更好地与UD和“新”(大约从2004年开始!)Penn Treebank标记化保持一致,我们将有更一致的可用性和词向量

CoreNLP的路线图尚不清楚。是否处于维护模式?我很高兴看到斯坦福德NLP受到重视,但缺乏对方向的了解令人担忧。如果新的神经模型更好,我们会看到它们被包装在Java CoreNLP API中吗?

CoreNLP尚未处于维护模式。我们将在今年夏天进行一些非常重要(并且破坏兼容性)的更改。除此之外,我们将转换为使用UDv2(从当前的UDv1),我们将对英语和其他语言进行标记化更改,以更好地与UD和“新”(大约从2004年开始!)Penn Treebank标记化保持一致,我们将有更一致的可用性和词向量的使用。这些更改应该增加Java和Python包之间的兼容性,随着时间的推移,我们还可以使用更多的数据来训练Python stanfordnlp模型。现在Python stanfordnlp v0.2已经发布,对CoreNLP的工作应该开始了


另一方面,斯坦福NLP小组的大部分研究精力现在已经转移到探索在主要深度学习框架之上用Python构建的神经模型。(希望听到这一点并不令人惊讶!)因此,将主要新组件添加到CoreNLP的可能性较小。很难预测未来,但可以合理预期CoreNLP将朝着稳定、高效的CPU NLP包的方向发展,而不是实现最新的神经模型

谢谢,克里斯。主要担心的是,新的基于PyTorch的模型将超过CoreNLP中可用的模型,而我们这些构建了大型Java代码库的人将无法轻松访问PyTorch模型。例如,我们希望为PoS、DEPPASRE、CoRef使用最先进的解决方案。似乎我们需要一个JNI风格的接口来连接这些模型,因为HTTP包装器可能太慢了。或者我的想法是错误的?没有承诺……但是我们有兴趣构建一个像Java服务器那样的Python服务器,如果不是太大的工作量,我们可以运行Java管道并在后台向运行神经模型的Python服务器提交请求……不确定这种设置的吞吐量,但我认为依赖解析或coref的处理时间会使服务器和客户端之间的通信时间相形见绌事实上,已经有一些原型允许Java管道访问我们内部repo中浮动的外部服务器……http的开销太小,您可能是对的。如果您将原型代码转移到外部回购,也许我们可以提供帮助。开源之美。。。谢谢你的回答。我投票把这个问题作为离题题来结束,因为询问未来计划或发布日期的问题不是编程问题。直接联系项目以获取有关其路线图的信息。如果您有关于使用这些库的代码相关问题,欢迎来到这里。