Machine learning 为什么对数似然目标梯度和回归的均方误差是相同的?

Machine learning 为什么对数似然目标梯度和回归的均方误差是相同的?,machine-learning,neural-network,gradient,logistic-regression,Machine Learning,Neural Network,Gradient,Logistic Regression,使用对数似然(交叉熵)作为目标函数时,逻辑回归模型的梯度与使用均方误差作为目标函数时,线性回归模型的梯度相同。这是一个巧合吗?那些梯度不一样吗?逻辑回归的表达式是:pred=1/(1+exp(-wx-b)),目标函数是-y*log(pred)-(1-y)log(1-p红色),梯度是:dw=(y-pred)*x也用于回归,pred=wx+b,目标函数是(y-pred)^2,梯度也是dw=(y-pred)*x?它们怎么不一样?用这种方式写,你可以说许多函数是相同的,但在这两种情况下,pred是不同的

使用对数似然(交叉熵)作为目标函数时,逻辑回归模型的梯度与使用均方误差作为目标函数时,线性回归模型的梯度相同。这是一个巧合吗?

那些梯度不一样吗?逻辑回归的表达式是:pred=1/(1+exp(-wx-b)),目标函数是-y*log(pred)-(1-y)log(1-p红色),梯度是:dw=(y-pred)*x也用于回归,pred=wx+b,目标函数是(y-pred)^2,梯度也是dw=(y-pred)*x?它们怎么不一样?用这种方式写,你可以说许多函数是相同的,但在这两种情况下,
pred
是不同的(因此表达式是不同的)。梯度的基本性质不同:(y-pred)在第一种情况下有界,在第二种情况下有界。将你的观察视为巧合,这里没有什么深层次。这些梯度并不相同?逻辑回归的表达式是:pred=1/(1+exp(-wx-b)),目标函数是-y*log(pred)-(1-y)log(1-p红色),梯度是:dw=(y-pred)*x也用于回归,pred=wx+b,目标函数是(y-pred)^2,梯度也是dw=(y-pred)*x?它们怎么不一样?用这种方式写,你可以说许多函数是相同的,但是
pred
在这两种情况下是不同的(所以表达式是不同的)。梯度的基本属性是不同的:(y-pred)在第一种情况下是有界的,在第二种情况下是无界的。将你的观察视为巧合,这里没有深入的东西。