Machine learning 防止在执行反向传递时更新网络权重

Machine learning 防止在执行反向传递时更新网络权重,machine-learning,conv-neural-network,torch,backpropagation,Machine Learning,Conv Neural Network,Torch,Backpropagation,我正在尝试通过我的网络执行反向传递,我不想在执行反向传递时更新网络的网络权重 output = net:forward(input) err = criterion:forward(output, label) df_do = criterion:backward(output, label) net:backward(input, df_do) 我假设这可以通过两种方法中的任何一种来实现 accGradParameters(input, gradOutput, scale) accUpdat

我正在尝试通过我的网络执行反向传递,我不想在执行反向传递时更新网络的网络权重

output = net:forward(input)
err = criterion:forward(output, label)
df_do = criterion:backward(output, label)
net:backward(input, df_do)
我假设这可以通过两种方法中的任何一种来实现

accGradParameters(input, gradOutput, scale)
accUpdateGradParameters(input, gradOutput, learningRate)

我可以使用torch中的optim软件包进行此操作吗?

可能的副本不是副本,我知道如何微调网络。但是,我希望在不更新网络权重的情况下执行反向传播