Optimization Pyrotch根据历代数更改学习速率

Optimization Pyrotch根据历代数更改学习速率,optimization,pytorch,learning-rate,Optimization,Pytorch,Learning Rate,当我设置学习率时,发现经过几次训练后,准确率无法提高 optimizer = optim.Adam(model.parameters(), lr = 1e-4) n_epochs = 10 for i in range(n_epochs): // some training here 如果我想使用阶跃衰减:每5个阶段将学习率降低10倍,我该怎么做 谢谢您可以使用lr-shedulartorch.optim.lr\u调度器.StepLR import torch.optim.lr\u

当我设置学习率时,发现经过几次训练后,准确率无法提高

optimizer = optim.Adam(model.parameters(), lr = 1e-4)

n_epochs = 10
for i in range(n_epochs):

    // some training here
如果我想使用阶跃衰减:每5个阶段将学习率降低10倍,我该怎么做


谢谢

您可以使用lr-shedular
torch.optim.lr\u调度器.StepLR

import torch.optim.lr\u scheduler.StepLR
调度程序=StepLR(优化器,步长=5,gamma=0.1)
gamma
every
step\u size
epochs衰减每个参数组的学习率 来自文档的示例

#假设优化器对所有组使用lr=0.05
#如果历元<30,则lr=0.05
#如果还需要30 optimizer.step()作为调度程序,则lr=0.005。step()仅控制学习速率。写这封信以防有人错过了。