Machine learning 机器学习与m-估计

Machine learning 机器学习与m-估计,machine-learning,artificial-intelligence,Machine Learning,Artificial Intelligence,我正在处理一个机器学习问题,我的数据中有一些异常值,我想对它们进行平滑处理。我读了一些关于用m估计来解决这个问题的书。我已经在网络和stackoverflow上进行了详尽的搜索,但没有找到一个好的例子。有人能给我提供一些资源,让我可以阅读更多关于这个主题的内容吗 谢谢 如果我记得清楚的话,M估计源于Huber的工作。他研究了使估计器稳健的方法。然而,为了衡量稳健性,考虑了一种非常特殊的稳健性类型。它被称为“分解点”,简单地说就是离群值与该方法能够处理的总点数的百分比。再多一个异常值,它就崩溃了

我正在处理一个机器学习问题,我的数据中有一些异常值,我想对它们进行平滑处理。我读了一些关于用m估计来解决这个问题的书。我已经在网络和stackoverflow上进行了详尽的搜索,但没有找到一个好的例子。有人能给我提供一些资源,让我可以阅读更多关于这个主题的内容吗


谢谢

如果我记得清楚的话,M估计源于Huber的工作。他研究了使估计器稳健的方法。然而,为了衡量稳健性,考虑了一种非常特殊的稳健性类型。它被称为“分解点”,简单地说就是离群值与该方法能够处理的总点数的百分比。再多一个异常值,它就崩溃了

注意,这种鲁棒性与计算机视觉中的鲁棒性有很大不同。在计算机视觉中,异常值可能不多,但它们可能(以结构化点的形式)联合起来破坏最稳健的估计器。在计算机视觉中,由于这个原因,您将遇到并执行线条的稳健估计

此外,一种对异常值具有很强弹性的M-估计量是一种限制指定给极端异常值的值的M-估计量。这些都是所谓的。由于极端异常值(称为
总异常值
)被赋予零权重,或者换句话说,在回归中根本不考虑,因此它们非常稳健


如果您想知道单个异常值的影响,我建议您编写一个简单的线性最小二乘倍频程程序。或者,如果你认为更简单的话,一个总体最小二乘法程序(你可以只做一个奇异值分解,并且内置了svd)。

如果我记得清楚的话,M估计源于Huber的工作。他研究了使估计器稳健的方法。然而,为了衡量稳健性,考虑了一种非常特殊的稳健性类型。它被称为“分解点”,简单地说就是离群值与该方法能够处理的总点数的百分比。再多一个异常值,它就崩溃了

注意,这种鲁棒性与计算机视觉中的鲁棒性有很大不同。在计算机视觉中,异常值可能不多,但它们可能(以结构化点的形式)联合起来破坏最稳健的估计器。在计算机视觉中,由于这个原因,您将遇到并执行线条的稳健估计

此外,一种对异常值具有很强弹性的M-估计量是一种限制指定给极端异常值的值的M-估计量。这些都是所谓的。由于极端异常值(称为
总异常值
)被赋予零权重,或者换句话说,在回归中根本不考虑,因此它们非常稳健


如果您想知道单个异常值的影响,我建议您编写一个简单的线性最小二乘倍频程程序。或者,如果您认为更简单,可以使用一个总体最小二乘法程序(您可以只进行奇异值分解,并且内置了
svd

这里有大量的参考资料。我正在寻找机器学习的例子。m-估计是在高层提到的,它是有意义的。但是,如果不看一个例子,我就无法完全理解这个概念。这里有大量的参考文献。我正在寻找机器学习的例子。m-估计是在高层提到的,它是有意义的。但是,如果不看一个例子,我就无法完全理解这个概念。