Statistics 为什么我们选择sse(平方误差之和)来确定线性回归中的最佳拟合线

Statistics 为什么我们选择sse(平方误差之和)来确定线性回归中的最佳拟合线,statistics,linear-regression,data-science,Statistics,Linear Regression,Data Science,我们选择SSE(平方误差之和)来确定最佳拟合线,而不是残差之和或绝对残差之和目的是允许线性代数直接求解回归中的方程系数。您提到的其他拟合目标不能以这种方式使用。使用导数演算,发现误差平方和最小的拟合目标允许直接,将实验数据拟合到其系数为线性的方程(如标准多项式方程)的问题的非迭代解决方案。詹姆斯是正确的,能够将回归系数的估计公式化为线性代数的形式是最小二乘估计(最小化SSE)的一大优势,但是使用最小二乘估计提供了一些其他有用的特性 使用最小二乘估计法,您可以最小化误差的方差,这是经常需要的。这为

我们选择SSE(平方误差之和)来确定最佳拟合线,而不是残差之和或绝对残差之和

目的是允许线性代数直接求解回归中的方程系数。您提到的其他拟合目标不能以这种方式使用。使用导数演算,发现误差平方和最小的拟合目标允许直接,将实验数据拟合到其系数为线性的方程(如标准多项式方程)的问题的非迭代解决方案。

詹姆斯是正确的,能够将回归系数的估计公式化为线性代数的形式是最小二乘估计(最小化SSE)的一大优势,但是使用最小二乘估计提供了一些其他有用的特性

使用最小二乘估计法,您可以最小化误差的方差,这是经常需要的。这为我们提供了系数的最佳线性无偏估计(蓝色)(假设满足高斯-马尔可夫假设)。(可以找到Gauss-Markov假设和一个证明,说明为什么该公式为我们提供了最佳线性无偏估计。)

使用最小二乘法,您也会得到唯一的解决方案(假设您的观测值比估计系数多,并且没有完美的多重共线性)

至于使用残差之和,这将不起作用,因为这将通过所有负残差最小化。
但是绝对残差之和用于某些线性模型,在这些模型中,您可能希望估计值对异常值更为稳健,并且不一定关心残差的方差。

很抱歉,发布了一些问题,我的问题是我们为什么不选择。。残差之和,或残差之和的绝对值,以获得最小误差我投票结束这个问题,因为它似乎不涉及编程。这个问题可能适合我投票结束这个问题,因为它是关于统计/数学,而不是直接关于编程/编码/编程工具/软件算法。