为什么pytorch中的grad\u输出要求\u grad为False?

为什么pytorch中的grad\u输出要求\u grad为False?,pytorch,Pytorch,这是你的电话号码 我对以下几点很困惑: 内层的输入不是一个变量。然后在向后中,它变成一个变量,需要梯度。为什么? grad\u输出是一个变量,但要求\u grad为False。为什么不是真的 在我的自定义层中,我需要自定义向前和向后操作。这相当复杂。请参阅相同的链接。我在里面贴了问题 通过损耗计算更新梯度,反向传播需要梯度。如果没有渐变,则无法训练网络 可能是因为您不希望渐变最后出现在变量上。这只是暂时的一个倒退阶段 为什么需要自定义的向后函数?是否需要对反向传播进行额外操作 1.你说的内层是什

这是你的电话号码

我对以下几点很困惑:

  • 内层的输入不是一个变量。然后在
    向后
    中,它变成一个变量,需要梯度。为什么?
  • grad\u输出
    是一个变量,但要求\u grad为False。为什么不是真的
  • 在我的自定义层中,我需要自定义向前和向后操作。这相当复杂。请参阅相同的链接。我在里面贴了问题
  • 通过损耗计算更新梯度,反向传播需要梯度。如果没有渐变,则无法训练网络
  • 可能是因为您不希望渐变最后出现在变量上。这只是暂时的一个倒退阶段
  • 为什么需要自定义的向后函数?是否需要对反向传播进行额外操作

  • 1.你说的内层是什么意思?2.grad_输出,顾名思义,是梯度计算的结果。为什么这个变量需要_grad?