为什么pytorch中的grad\u输出要求\u grad为False?
这是你的电话号码 我对以下几点很困惑:为什么pytorch中的grad\u输出要求\u grad为False?,pytorch,Pytorch,这是你的电话号码 我对以下几点很困惑: 内层的输入不是一个变量。然后在向后中,它变成一个变量,需要梯度。为什么? grad\u输出是一个变量,但要求\u grad为False。为什么不是真的 在我的自定义层中,我需要自定义向前和向后操作。这相当复杂。请参阅相同的链接。我在里面贴了问题 通过损耗计算更新梯度,反向传播需要梯度。如果没有渐变,则无法训练网络 可能是因为您不希望渐变最后出现在变量上。这只是暂时的一个倒退阶段 为什么需要自定义的向后函数?是否需要对反向传播进行额外操作 1.你说的内层是什
向后
中,它变成一个变量,需要梯度。为什么?grad\u输出
是一个变量,但要求\u grad为False。为什么不是真的1.你说的内层是什么意思?2.grad_输出,顾名思义,是梯度计算的结果。为什么这个变量需要_grad?