Python “.zero\u grad()”和“.zero\u grad”之间有什么区别?

Python “.zero\u grad()”和“.zero\u grad”之间有什么区别?,python,neural-network,pytorch,gradient-descent,loss-function,Python,Neural Network,Pytorch,Gradient Descent,Loss Function,我正在研究神经网络,我发现,使用*.grad_zero()可以正确地得到损失函数值,并且收敛到零。式中,带*。零度梯度(不带括号)给出5位的损耗函数值。(13,564.23). 那么,它们之间有什么区别呢?为什么“()”在FPP中很重要。谢谢。是一个函数,所以需要用括号调用它。如果不使用括号,则只引用函数对象,而从不调用它。如果不调用它,渐变将随着时间的推移而累积。。。

我正在研究神经网络,我发现,使用
*.grad_zero()
可以正确地得到损失函数值,并且收敛到零。式中,带
*。零度梯度(不带括号)给出5位的损耗函数值。(13,564.23). 那么,它们之间有什么区别呢?为什么“()”在FPP中很重要。谢谢。

是一个函数,所以需要用括号调用它。如果不使用括号,则只引用函数对象,而从不调用它。

如果不调用它,渐变将随着时间的推移而累积。。。