Nlp 使用BERT优化文本嵌入?

Nlp 使用BERT优化文本嵌入?,nlp,embedding,Nlp,Embedding,在对分类任务进行微调时,文本emebddings是否也进行了微调?或者,第二层和最后一层的编码都经过了微调?如果您使用的是谷歌发布的,那么所有层都是可训练的;意思是:一点也不冻。您可以通过打印tf.trainable_变量来检查这一点。这是否也用于微调案例?我希望在我的数据中对编码进行微调。是的。一切都将与您的数据进行微调。

在对分类任务进行微调时,文本emebddings是否也进行了微调?或者,第二层和最后一层的编码都经过了微调?

如果您使用的是谷歌发布的,那么所有层都是可训练的;意思是:一点也不冻。您可以通过打印tf.trainable_变量来检查这一点。

这是否也用于微调案例?我希望在我的数据中对编码进行微调。是的。一切都将与您的数据进行微调。