Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/python/342.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Python 训练一个训练有素的罗伯塔的正确输入/形状是什么?_Python_Pytorch_Keyerror_Roberta Language Model - Fatal编程技术网

Python 训练一个训练有素的罗伯塔的正确输入/形状是什么?

Python 训练一个训练有素的罗伯塔的正确输入/形状是什么?,python,pytorch,keyerror,roberta-language-model,Python,Pytorch,Keyerror,Roberta Language Model,目前,我正在尝试训练/微调一个具有多选择头部的预训练RoBERTa模型,但我很难找到正确的输入,因此我的模型能够训练/微调 我现在拥有的数据帧如下所示: 将3个选项标记为句子,使用: tokenizer = RobertaTokenizer.from_pretrained('roberta-base') for i in range(0, len(train_data)): train_data["OptionA"][i] = tokenizer.encode(trai

目前,我正在尝试训练/微调一个具有多选择头部的预训练RoBERTa模型,但我很难找到正确的输入,因此我的模型能够训练/微调

我现在拥有的数据帧如下所示:

将3个选项标记为句子,使用:

tokenizer = RobertaTokenizer.from_pretrained('roberta-base')
for i in range(0, len(train_data)):
  train_data["OptionA"][i] = tokenizer.encode(train_data["OptionA"][i])
  train_data["OptionB"][i] = tokenizer.encode(train_data["OptionB"][i])
  train_data["OptionC"][i] = tokenizer.encode(train_data["OptionC"][i])
我的评估集也是这样,测试集有6500行,评估集有1500行。 我试图通过以下方式实现这一点:

来自transformers import RobertaForMultipleChoice、培训师、培训论证
model=RobertaForMultipleChoice.from_pretrained('roberta-base'))
培训参数=培训参数(
输出目录='./结果',#输出目录
训练次数=1,训练次数总数
每台设备每列批量大小=32,培训期间每台设备的批量大小
每台设备评估批量大小=32,评估批量大小
预热步骤=500,#学习速率计划程序的预热步骤数
重量衰减=0.01,#重量衰减强度
logging_dir='./logs',#用于存储日志的目录
)
教练(
model=model,#实例化的