Nlp 提取bert和svm用于文本分类

Nlp 提取bert和svm用于文本分类,nlp,torch,word-embedding,Nlp,Torch,Word Embedding,我使用了从拥抱脸中提取的信息来得到单词的向量嵌入。拥抱面中的示例输出为三维火炬张量。如何将这些嵌入提供给SVM? 我确实分离了向量,然后将它们重塑为二维,作为SVM的输入。我想知道这是否正确? 在这里,我有一个句子列表。我将做一个for循环并得到向量。 代码: ''' ''' embeddings=[] embedding_np_array=[] for i in my_list: tokenizer = DistilBertTokenizer.from_pretrained('disti

我使用了从拥抱脸中提取的信息来得到单词的向量嵌入。拥抱面中的示例输出为三维火炬张量。如何将这些嵌入提供给SVM? 我确实分离了向量,然后将它们重塑为二维,作为SVM的输入。我想知道这是否正确? 在这里,我有一个句子列表。我将做一个for循环并得到向量。 代码: '''

'''

embeddings=[]
embedding_np_array=[]
for i in my_list:
   tokenizer = DistilBertTokenizer.from_pretrained('distilbert-base-uncased')
   model = DistilBertModel.from_pretrained('distilbert-base-uncased')
   input_ids = torch.tensor(tokenizer.encode("Hello, my dog is cute")).unsqueeze(0)
   outputs = model(input_ids)
   last_hidden_states = outputs[0]
   embeddings.append(last_hidden_states)

for i in embeddings:
     embedding_np_array.append(i.detach().numpy())
input_svm=embedding_np_array.reshape(embedding_np_array.reshape[0],-1)