Machine learning 如何确定数据点的回归线(理论)?

Machine learning 如何确定数据点的回归线(理论)?,machine-learning,data-science,Machine Learning,Data Science,确定以下数据点的回归线: (x1, y1) = (1, 4), (x2, y2) = (2, 3), (x3, y3) = (3, 9) i、 e.函数h(x)=w+hx,该函数使数据的平方误差损失最小化。这个问题归结为数学问题 首先,我们编写错误函数 误差函数的导数告诉我们当我们改变变量时误差是如何变化的。因为有两个变量(m和b),所以它是偏导数。当导数等于零时,我们知道我们已经达到了一个最小值(因为我们取二次曲线的导数,我们知道存在一个全局最小值) 把每一项都写在总数中,我们就知道了

确定以下数据点的回归线:

(x1, y1) = (1, 4), (x2, y2) = (2, 3), (x3, y3) = (3, 9)

i、 e.
函数h(x)=w+hx
,该函数使数据的平方误差损失最小化。

这个问题归结为数学问题

首先,我们编写错误函数

误差函数的导数告诉我们当我们改变变量时误差是如何变化的。因为有两个变量(m和b),所以它是偏导数。当导数等于零时,我们知道我们已经达到了一个最小值(因为我们取二次曲线的导数,我们知道存在一个全局最小值)

把每一项都写在总数中,我们就知道了

两个变量,两个方程意味着我们可以同时求解

在你的例子中,我们有h=m和w=b

作为双重检查,Desmos是一个很好的工具


这听起来像是一个家庭作业问题;请看。请不要问这种问题,因为它们在堆栈溢出中是离题的。这里只允许有编程问题。也许是该去的地方,尽管这个问题需要一些工作,见马克的评论。