Opencv GMM中的权参数与期望最大化

Opencv GMM中的权参数与期望最大化,opencv,probability,gaussian,expectations,expectation-maximization,Opencv,Probability,Gaussian,Expectations,Expectation Maximization,我正在与EM一起编程GMM。我遇到了以下问题。正如您将在中看到的,有一个参数“pi”,即权重或概率值 我的问题是这是如何计算的?还是在实数编码中忽略了它?pi_k是第k个高斯函数的混合系数。你绝对不能忽视它。pi_k的最大似然估计量是实例的第k个指标变量的平均值。您引用的页面调用这些指示符\alpha_-ik。正如您可能读到的,EM的每个迭代有两个步骤。期望步骤和最大化步骤。在每个期望步骤中,我们都有一个越来越精确的概念,即每个训练样本有多少属于每个集群。利用这个估计,在最大化步骤中,我们计算使

我正在与EM一起编程GMM。我遇到了以下问题。正如您将在中看到的,有一个参数“pi”,即权重或概率值


我的问题是这是如何计算的?还是在实数编码中忽略了它?

pi_k是第k个高斯函数的混合系数。你绝对不能忽视它。pi_k的最大似然估计量是实例的第k个指标变量的平均值。您引用的页面调用这些指示符\alpha_-ik。

正如您可能读到的,EM的每个迭代有两个步骤。期望步骤和最大化步骤。在每个期望步骤中,我们都有一个越来越精确的概念,即每个训练样本有多少属于每个集群。利用这个估计,在最大化步骤中,我们计算使可能性最大化的GMM的参数。pi_k是在最大化步骤中计算的参数之一。因此,pi_k会在每次迭代中重新计算

使用EM的opencv实现,如果“EM_模型”是您的EM模型,并且它经过培训

Mat weights = em_model.get<Mat>("weights");
Mat weights=em_model.get(“权重”);
将为您提供pi_k的值