Warning: file_get_contents(/data/phpspider/zhask/data//catemap/3/sockets/2.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
如何改变PyTorch(1.6)中的学习率_Pytorch_Learning Rate - Fatal编程技术网

如何改变PyTorch(1.6)中的学习率

如何改变PyTorch(1.6)中的学习率,pytorch,learning-rate,Pytorch,Learning Rate,我正在使用Pytork,我想在几个时代后改变学习速度 但是,大多数文件中提供的代码是: optimizer = torch.optim.Adam([ dict(params=model.parameters(), lr=learning_rate), ]) #This line specifically optimizer.params_group[0]['lr'] = learning_rate 不起作用 实际上,PyCharm暗示了这一点: 类“Ad

我正在使用Pytork,我想在几个时代后改变学习速度

但是,大多数文件中提供的代码是:

  optimizer = torch.optim.Adam([
        dict(params=model.parameters(), lr=learning_rate),
    ])
   #This line specifically
   optimizer.params_group[0]['lr'] = learning_rate
不起作用

实际上,PyCharm暗示了这一点:

类“Adam”的未解析属性引用“params_group”

因此,引发的错误是:

AttributeError:“Adam”对象没有属性“params\u group”


如何手动改变PyTorch(1.6)中的学习率?

在上面的评论中,@Alizera Omidi提供了答案


params_组
中有一个输入错误,实际上是
param_组
param_组不是pytorch设计的可行解决方案,因此您应该实现
pytorch.optim.lr_调度程序
。在其他stackoverflow答案中阅读更多关于此的信息


我很确定这是
参数组
。你打错了,真傻。我一直在关注一些教程,但我甚至没有注意到。请在下面提供答案,以便我可以接受。
import torch.optim.lr_scheduler.StepLR #step learning rate
scheduler = StepLR(optimizer, step_size=5, gamma=0.1)