Machine learning 梯度下降在线性回归中的作用是什么?

Machine learning 梯度下降在线性回归中的作用是什么?,machine-learning,linear-regression,gradient-descent,Machine Learning,Linear Regression,Gradient Descent,有人能给我一个关于梯度下降在线性回归中的应用的高层次的概述吗?我知道梯度下降法基本上能有效地找到局部极小值,但这实际上如何帮助形成对数据的回归呢?有人能给我一个事件的顺序吗,在这个顺序中,线实际上是形成到数据点的?我知道如何计算一个点的梯度,但不知道它实际上如何帮助更有效地形成直线。我在这里找到了一个可靠的答案: 理解这一点的诀窍是知道必须计算y=mx+b的m和b值来开发成本函数,但这将为您提供一个最佳和最差拟合线的新数据集。然后使用gradient Delegate基本上找到包含线的实际m和b

有人能给我一个关于梯度下降在线性回归中的应用的高层次的概述吗?我知道梯度下降法基本上能有效地找到局部极小值,但这实际上如何帮助形成对数据的回归呢?有人能给我一个事件的顺序吗,在这个顺序中,线实际上是形成到数据点的?我知道如何计算一个点的梯度,但不知道它实际上如何帮助更有效地形成直线。

我在这里找到了一个可靠的答案:

理解这一点的诀窍是知道必须计算y=mx+b的m和b值来开发成本函数,但这将为您提供一个最佳和最差拟合线的新数据集。然后使用gradient Delegate基本上找到包含线的实际m和b值的最小误差线。这个链接有一个非常好的错误图(在我的非专业机器学习观点中),如果你了解gradient Delegate,你可以看到它如何沿着图向下移动,找到最低的错误。很抱歉在这个问题上仓促行事,但希望它能帮助一些刚刚接触机器学习的人