Nlp 如何找到一个段落的上下文,借助于BERT?

Nlp 如何找到一个段落的上下文,借助于BERT?,nlp,Nlp,我正在寻找一种方法来运行一个简单的例子。 如何使用google BERT分析上下文? 例如,我有一段维基百科文本,还有来自谷歌的预先训练过的伯特模型。如何将段落传递给BERT并获得主要上下文的文本表示? 谢谢 EDTED: 我们有一段 “我正在寻找一种方法来运行一个简单的BERT示例。如何使用google BERT分析上下文?例如,我有一段wikipedia文本,以及来自google的预先训练的BERT模型。如何将该段传递给BERT并获得主上下文的文本表示?谢谢!” 上下文应该是“如何使用goo

我正在寻找一种方法来运行一个简单的例子。 如何使用google BERT分析上下文? 例如,我有一段维基百科文本,还有来自谷歌的预先训练过的伯特模型。如何将段落传递给BERT并获得主要上下文的文本表示? 谢谢

EDTED:

我们有一段

“我正在寻找一种方法来运行一个简单的BERT示例。如何使用google BERT分析上下文?例如,我有一段wikipedia文本,以及来自google的预先训练的BERT模型。如何将该段传递给BERT并获得主上下文的文本表示?谢谢!”

上下文应该是“如何使用google BERT分析上下文?”或“如何分析”

对我来说,问题是如何教模型从其他句子中提取主句^上面的例子

另一个问题:如何处理大于512个令牌的文档


谢谢

他们已经在团队数据集上训练了它,用于问答任务,这是一项像你一样的顺序对顺序的任务。因此,您可以使用适当的数据集(可能是文本摘要)对其进行微调。

我认为,不需要微调和培训,这应该是可能的,因为预先培训的模型allready是在维基百科数据上学习的。如果我错了,我很感谢你指导如何实现维基百科段落上下文分析。“主要上下文的文本表示法”这个短语并不清楚。请发布示例输入和输出,以帮助理解您正在寻找的内容。谢谢!使用example.Hi@OlexanderKorenyuk编辑。你找到适合这个任务的模型了吗?你用了什么?