Nlp 如何微调BERT以总结文章

Nlp 如何微调BERT以总结文章,nlp,artificial-intelligence,tensorflow2.0,word2vec,summarization,Nlp,Artificial Intelligence,Tensorflow2.0,Word2vec,Summarization,我正在学习nlp,作为一个学习项目,我试图用伯特来面对现实 数据集很简单(在news_summary_more.csv中)-它有文章和标题列 我的想法是,使用文章作为特写(X),使用标题作为目标(Y) 我的问题是如何衡量微调的成功,以便模型能够学习 模型预测几乎永远不会与实际目标相同(y!=^y),因为有太多的选项来总结文章,并且几乎100%的案例模型的总结会与实际标题有所不同 例如: Team A won the game against team B 不同于: Team A is vict

我正在学习nlp,作为一个学习项目,我试图用伯特来面对现实

数据集很简单(在news_summary_more.csv中)-它有文章标题

我的想法是,使用文章作为特写(X),使用标题作为目标(Y)

我的问题是如何衡量微调的成功,以便模型能够学习

模型预测几乎永远不会与实际目标相同(y!=^y),因为有太多的选项来总结文章,并且几乎100%的案例模型的总结会与实际标题有所不同

例如:

Team A won the game against team B
不同于:

Team A is victorious against team B on the game
虽然两者的意思几乎相同


那么,如何测试模型是否接近实际目标呢?(可能以某种方式使用MSE)

f1\u分数将是这种数据集的正确度量