Algorithm EM算法中的似然性
关于EM算法。 如果我理解正确,似然值是在E步中获得的(例如,在Baum–Welch算法中,似然值可以从前向-后向过程中获得)。Algorithm EM算法中的似然性,algorithm,Algorithm,关于EM算法。 如果我理解正确,似然值是在E步中获得的(例如,在Baum–Welch算法中,似然值可以从前向-后向过程中获得)。 然而,每个EM迭代的最后一步是M步。这意味着在步骤k中计算的可能性实际上“属于”步骤(k-1)的参数。这是真的吗,还是我遗漏了什么?EM算法的目标是,给定一个模型,找到模型的参数,使数据的可能性最大化 重点是参数,而不是似然值 根据我的理解,E步是用来计算对数似然函数的期望值。在实践中,主要包括使用当前参数值计算M步所需的值。在M步中,您将获得最大化可能性(或其下限)
然而,每个EM迭代的最后一步是M步。这意味着在步骤k中计算的可能性实际上“属于”步骤(k-1)的参数。这是真的吗,还是我遗漏了什么?EM算法的目标是,给定一个模型,找到模型的参数,使数据的可能性最大化 重点是参数,而不是似然值 根据我的理解,E步是用来计算对数似然函数的期望值。在实践中,主要包括使用当前参数值计算M步所需的值。在M步中,您将获得最大化可能性(或其下限)的参数。随后可以使用新参数计算似然值 你和HMMs一起工作吗?如果是,我可以指定每一步计算的数量 希望这能有所帮助!:)