Nlp 是否有可能在huggingface库的额外数据上进一步微调BERT模型

Nlp 是否有可能在huggingface库的额外数据上进一步微调BERT模型,nlp,bert-language-model,Nlp,Bert Language Model,我已经在im使用的数据集上微调了一个BERT模型。但当我回顾结果时,我想为培训添加额外的数据。我不想再培训整个模型,虽然它需要很长时间,因为我没有在GPU上运行。是否可以只在微调模型的基础上输入新的数据集?我正在使用huggingface库进行此操作。我认为您正在寻找类似重新培训或增量培训的内容。 您可以使用creme库进行相同的尝试: 这是否回答了您的问题?不,我不确定它是否相同,但我已经对特定域进行了微调并保存了此模型。但现在我的问题是,在微调之后,我创建了更多的数据集供模型训练使用。因此,

我已经在im使用的数据集上微调了一个BERT模型。但当我回顾结果时,我想为培训添加额外的数据。我不想再培训整个模型,虽然它需要很长时间,因为我没有在GPU上运行。是否可以只在微调模型的基础上输入新的数据集?我正在使用huggingface库进行此操作。

我认为您正在寻找类似重新培训或增量培训的内容。 您可以使用
creme
库进行相同的尝试:

这是否回答了您的问题?不,我不确定它是否相同,但我已经对特定域进行了微调并保存了此模型。但现在我的问题是,在微调之后,我创建了更多的数据集供模型训练使用。因此,起初我有800行供模型微调。现在我又多了300行。我不想将两者结合起来,生成1100行,并完全从预训练的模型微调模型。相反,我想使用800行中保存的模型,并对额外的300行进行进一步微调。这可能吗?它做的和你评论的一样吗?