如何改变PyTorch(1.6)中的学习率
我正在使用Pytork,我想在几个时代后改变学习速度 但是,大多数文件中提供的代码是:如何改变PyTorch(1.6)中的学习率,pytorch,learning-rate,Pytorch,Learning Rate,我正在使用Pytork,我想在几个时代后改变学习速度 但是,大多数文件中提供的代码是: optimizer = torch.optim.Adam([ dict(params=model.parameters(), lr=learning_rate), ]) #This line specifically optimizer.params_group[0]['lr'] = learning_rate 不起作用 实际上,PyCharm暗示了这一点: 类“Ad
optimizer = torch.optim.Adam([
dict(params=model.parameters(), lr=learning_rate),
])
#This line specifically
optimizer.params_group[0]['lr'] = learning_rate
不起作用
实际上,PyCharm暗示了这一点:
类“Adam”的未解析属性引用“params_group”
因此,引发的错误是:
AttributeError:“Adam”对象没有属性“params\u group”
如何手动改变PyTorch(1.6)中的学习率?在上面的评论中,@Alizera Omidi提供了答案
params_组
中有一个输入错误,实际上是param_组
param_组不是pytorch设计的可行解决方案,因此您应该实现pytorch.optim.lr_调度程序
。在其他stackoverflow答案中阅读更多关于此的信息
我很确定这是
参数组
。你打错了,真傻。我一直在关注一些教程,但我甚至没有注意到。请在下面提供答案,以便我可以接受。
import torch.optim.lr_scheduler.StepLR #step learning rate
scheduler = StepLR(optimizer, step_size=5, gamma=0.1)