Machine learning 最大似然估计(MLE)是参数方法吗?

Machine learning 最大似然估计(MLE)是参数方法吗?,machine-learning,statistics,Machine Learning,Statistics,新颖性检测的概率方法主要有两种:参数方法和非参数方法。非para方法假设分布或密度函数来自于训练数据,如核密度估计,如Parzen窗口,而para方法假设数据来自于已知分布 我不熟悉参数化方法。有人能给我看一些著名的算法吗?顺便说一下,如果MLE是一种参数方法,那么密度曲线是已知的,然后找到对应于最大值的参数?是的,根据定义,MLE是一种参数方法。您正在将参数估计为一个分布,从而使数据的观察概率最大化。在这两者之间,非参数方法通常意味着无限多的参数,而不是缺少参数。例如,狄利克莱过程 我想你对这

新颖性检测的概率方法主要有两种:参数方法和非参数方法。非para方法假设分布或密度函数来自于训练数据,如核密度估计,如Parzen窗口,而para方法假设数据来自于已知分布


我不熟悉参数化方法。有人能给我看一些著名的算法吗?顺便说一下,如果MLE是一种参数方法,那么密度曲线是已知的,然后找到对应于最大值的参数?

是的,根据定义,MLE是一种参数方法。您正在将参数估计为一个分布,从而使数据的观察概率最大化。在这两者之间,非参数方法通常意味着无限多的参数,而不是缺少参数。例如,狄利克莱过程

我想你对这里的很多术语感到困惑

最大似然法对于准经验模型(比如高斯分布)是有意义的,因为参数的数量是先验固定的,因此询问“最佳”估计值是什么是有意义的。最大可能性给出了许多可能的答案之一


理解非参数方法的一种方法是,它们的参数数量随着样本数量的增加而增加。因此,KDE对每个数据点都有一个参数,外加一个带宽参数。MLE在这里意味着什么?随着更多数据的到来,您会增加参数的数量,因此对于一组固定的参数来说,没有最佳值的意义。

这可能更适合于您的问题,请在您的答案中添加一些引用。