Nlp Tensorflow和Bert他们到底是什么和什么';他们之间有什么区别?
我对NLP很感兴趣,我提出了Tensorflow和Bert,他们似乎都来自谷歌,从今天起,他们似乎都是情绪分析的最佳选择,但我不知道他们到底是什么,他们之间的区别是什么。。。有人能解释一下吗 Bert和Tensorflow并没有什么不同,Bert的实现不仅有2个,还有很多。大多数基本上是等价的 您提到的实现包括: 谷歌的原始代码,在Tensorflow中。 Huggingface在Pytorch和Tensorflow中的实现,它复制与原始实现相同的结果,并使用与原始文章相同的检查点。 以下是不同方面的差异: 就结果而言,使用其中一个或另一个没有区别,因为它们都使用相同的检查点(相同的权重),并且它们的结果已被检查为相等。 就可重用性而言,HuggingFace库可能更具可重用性,因为它是专门为此而设计的。此外,它还允许您自由选择TensorFlow或Pytorch作为深度学习框架。 就性能而言,它们应该是相同的。 在社区支持方面(例如,在github或stackoverflow中提问),HuggingFace library更适合,因为有很多人在使用它。 除了BERT,HuggingFace的transformers库还实现了许多模型:OpenAI GPT-2、RoBERTa、ELECTRA Bert和Tensorflow并没有什么不同,Bert的实现不仅有2个,还有很多。大多数基本上是等价的 您提到的实现包括: 谷歌的原始代码,在Tensorflow中。 Huggingface在Pytorch和Tensorflow中的实现,它复制与原始实现相同的结果,并使用与原始文章相同的检查点。 以下是不同方面的差异: 就结果而言,使用其中一个或另一个没有区别,因为它们都使用相同的检查点(相同的权重),并且它们的结果已被检查为相等。 就可重用性而言,HuggingFace库可能更具可重用性,因为它是专门为此而设计的。此外,它还允许您自由选择TensorFlow或Pytorch作为深度学习框架。 就性能而言,它们应该是相同的。 在社区支持方面(例如,在github或stackoverflow中提问),HuggingFace library更适合,因为有很多人在使用它。 除了BERT之外,HuggingFace的transformers库还实现了许多模型:OpenAI GPT-2、RoBERTa、ELECTRA,…Tensorflow是一个用于机器学习的开源库,它可以让您构建一个深度学习模型/架构。但这是体系结构本身之一。您可以使用TensorFlow构建许多模型,包括RNN、LSTM甚至BERT。如果您只想在数据上部署一个模型,而不关心深度学习领域本身,那么像伯特这样的转换器是一个不错的选择。为此,我推荐了一个库,它提供了一种简单的方法,只需几行代码就可以使用transformer模型。但是,如果您想更深入地了解这些模型,我建议您了解著名的文本数据深度学习体系结构,如RNN、LSTM、CNN等。,并尝试使用类似or的ML库来实现它们。Tensorflow是一个用于机器学习的开源库,它将让您构建一个深入的学习模型/体系结构。但这是体系结构本身之一。您可以使用TensorFlow构建许多模型,包括RNN、LSTM甚至BERT。如果您只想在数据上部署一个模型,而不关心深度学习领域本身,那么像伯特这样的转换器是一个不错的选择。为此,我推荐了一个库,它提供了一种简单的方法,只需几行代码就可以使用transformer模型。但是,如果您想更深入地了解这些模型,我建议您了解一些著名的文本数据深度学习体系结构,如RNN、LSTM、CNN等,并尝试使用类似or的ML库来实现它们Nlp Tensorflow和Bert他们到底是什么和什么';他们之间有什么区别?,nlp,tensorflow2.x,Nlp,Tensorflow2.x,我对NLP很感兴趣,我提出了Tensorflow和Bert,他们似乎都来自谷歌,从今天起,他们似乎都是情绪分析的最佳选择,但我不知道他们到底是什么,他们之间的区别是什么。。。有人能解释一下吗 Bert和Tensorflow并没有什么不同,Bert的实现不仅有2个,还有很多。大多数基本上是等价的 您提到的实现包括: 谷歌的原始代码,在Tensorflow中。 Huggingface在Pytorch和Tensorflow中的实现,它复制与原始实现相同的结果,并使用与原始文章相同的检查点。 以下是不同