Machine learning 线性回归背后的数学

Machine learning 线性回归背后的数学,machine-learning,linear-regression,Machine Learning,Linear Regression,我试图理解线性回归背后的数学,我在多个网站上验证了线性回归在OLS方法下工作,y=mx+c以获得最佳拟合线 所以为了计算截距和斜率,我们使用下面的公式(如果我没有错的话) m=[(x-均值(x))(y-均值(y))]之和/[(x-均值(x))之和] c=平均值(y)-b1(平均值(x)) 因此,我们得到了x和c值,在上面的方程中代入,得到y预测值,并且可以预测新的x值 但我的疑问是什么时候使用“梯度下降”。我知道它也用于计算系数,只有这样,它通过找到局部极小值来减少成本函数 请帮我做这件事 这两

我试图理解线性回归背后的数学,我在多个网站上验证了线性回归在OLS方法下工作,y=mx+c以获得最佳拟合线

所以为了计算截距和斜率,我们使用下面的公式(如果我没有错的话)

m=[(x-均值(x))(y-均值(y))]之和/[(x-均值(x))之和]

c=平均值(y)-b1(平均值(x))

因此,我们得到了x和c值,在上面的方程中代入,得到y预测值,并且可以预测新的x值

但我的疑问是什么时候使用“梯度下降”。我知道它也用于计算系数,只有这样,它通过找到局部极小值来减少成本函数

请帮我做这件事

  • 这两个函数在python/R中是独立的吗

  • 或者,线性回归在默认情况下适用于梯度下降(如果是这样,那么上述用于计算m和c值的公式何时适用)


  • 这不是关于StackOverflow的主题,它是关于编程问题的。这更适合于,但无论如何,梯度下降是一种数值方法,用于解决普通最小二乘法解析估计的问题。梯度下降法不仅适用于线性回归,而且适用于各种优化问题