Machine learning EM算法中的初始化步骤?

Machine learning EM算法中的初始化步骤?,machine-learning,probability,Machine Learning,Probability,我试图理解EM算法是如何工作的,我指的是这些 我知道这里发生了什么,我们随机取θ(a),θ(b),对于每一个硬币,我们计算p(硬币a),p(硬币b),然后重新计算θ(a),θ(b) 我无法理解的是初始θ值背后的推理。如果我在开始时对两个θ值取相同的值呢?在这种情况下,两种硬币的θ总是相同的?好吧,考虑一下对相等的θ的解释。如果θ(a)=θ(b),你基本上是说两枚硬币的概率完全相同,所以它是哪枚硬币并不重要。如果你假设概率相等,你可以说只有一枚硬币 更好的初始化通常会导致更快的收敛。

我试图理解EM算法是如何工作的,我指的是这些

我知道这里发生了什么,我们随机取θ(a),θ(b),对于每一个硬币,我们计算p(硬币a),p(硬币b),然后重新计算θ(a),θ(b)


我无法理解的是初始θ值背后的推理。如果我在开始时对两个θ值取相同的值呢?在这种情况下,两种硬币的θ总是相同的?

好吧,考虑一下对相等的
θ的解释。如果θ(a)=θ(b)
,你基本上是说两枚硬币的概率完全相同,所以它是哪枚硬币并不重要。如果你假设概率相等,你可以说只有一枚硬币

更好的初始化通常会导致更快的收敛。