pytorch-为什么要使用张量。需要_grad(True)而不是张量。需要_grad=True

pytorch-为什么要使用张量。需要_grad(True)而不是张量。需要_grad=True,pytorch,Pytorch,我正在阅读PyTorch的简介,对张量有点困惑。需要_grad_(…)函数。为什么人们更喜欢它而不是仅仅使用setter:Tensor.requires\u grad=…?Setter语法似乎更清晰易读。为什么要用这个有趣的下划线后缀来引入这个奇怪的函数?两者都是同样可取的tensor.requires\u grad\u()将默认布尔参数设置为True,而使用tensor.requires\u grad=True则必须显式设置值。因此,有时前者可能比后者更方便。此外,尾随的(下划线)表示操作已就

我正在阅读PyTorch的简介,对
张量有点困惑。需要_grad_(…)
函数。为什么人们更喜欢它而不是仅仅使用setter:
Tensor.requires\u grad=…
?Setter语法似乎更清晰易读。为什么要用这个有趣的下划线后缀来引入这个奇怪的函数?

两者都是同样可取的
tensor.requires\u grad\u()
将默认布尔参数设置为
True
,而使用
tensor.requires\u grad=True
则必须显式设置值。因此,有时前者可能比后者更方便。此外,尾随的
(下划线)表示操作已就位。