Machine learning 质量点,Dirichlet过程中的Diracδ

Machine learning 质量点,Dirichlet过程中的Diracδ,machine-learning,dirichlet,Machine Learning,Dirichlet,当处理Dirichlet过程时,根据[Teh,2007],DP被定义为基本概率H和比例因子“alpha” 根据断棒结构,从DP中随机抽取G: G~DP(α,H) 由以下公式给出: G=从1到无穷大的k上的和(πk*δθk) pi_k是根据给定酉棒长度的Beta分布进行排序的 delta_theta_k是以“theta_k”为中心的点质量(theta_k是从基本分布中随机抽取的) 我对所有的变量都有相当清晰的理解,但我不知道它们所说的“质量点”是什么意思,是那个图的概率密度,还是别的什么 如果你能

当处理Dirichlet过程时,根据[Teh,2007],DP被定义为基本概率H和比例因子“alpha”

根据断棒结构,从DP中随机抽取G:

G~DP(α,H)

由以下公式给出:

G=从1到无穷大的k上的和(πk*δθk)

pi_k是根据给定酉棒长度的Beta分布进行排序的

delta_theta_k是以“theta_k”为中心的点质量(theta_k是从基本分布中随机抽取的)

我对所有的变量都有相当清晰的理解,但我不知道它们所说的“质量点”是什么意思,是那个图的概率密度,还是别的什么

如果你能给我指出任何方向,那就太好了,只有一个参考资料才是令人惊奇的


谢谢

G是概率分布上的概率分布。这些(次)概率分布在某个域上,我们称之为BigTheta

每个θk都是从BigTheta上的分布中抽取的,所以它是BigTheta的一些元素

每个deltaθk都是BigTheta上的概率分布,定义为deltaθk(θk)=1和deltaθk(任何其他)=0。这就是他们所谓的“点质量”分布,因为分布的所有质量都在域的一个点上


G是BigTheta上概率分布的概率分布,定义为:对于BigTheta上称为f(由θ参数化)的某些分布,G(f(θ))=sum(pi_k*delta_θk(θ))


我希望这能有所帮助,我认为你的想法大体上是正确的,只是符号可能会变得有点复杂(这不是这种符号的最佳选择)。每当你遇到一个符号时,思考它是什么类型的函数,即它的定义通常是很有帮助的。

G是概率分布上的概率分布。这些(次)概率分布在某个域上,我们称之为BigTheta

每个θk都是从BigTheta上的分布中抽取的,所以它是BigTheta的一些元素

每个deltaθk都是BigTheta上的概率分布,定义为deltaθk(θk)=1和deltaθk(任何其他)=0。这就是他们所谓的“点质量”分布,因为分布的所有质量都在域的一个点上


G是BigTheta上概率分布的概率分布,定义为:对于BigTheta上称为f(由θ参数化)的某些分布,G(f(θ))=sum(pi_k*delta_θk(θ))


我希望这能有所帮助,我认为你的想法大体上是正确的,只是符号可能会变得有点复杂(这不是这种符号的最佳选择)。当你遇到一个符号时,思考它是什么类型的函数,即它的定义通常是很有帮助的。

如果你能提供更多关于参考的细节,而不仅仅是[Teh,2007]我将假设它是“Dirichlet过程”Yee-Whye-Teh,机器学习百科全书如果你能提供更多关于参考文献的详细信息,而不仅仅是[Teh,2007]我将假设是“Dirichlet过程”Yee-Whye-Teh,机器学习百科全书这是一个非常好的答案,谢谢,抱歉没有指出整个参考文献的问题,祝你好运试图理解Dirichlet过程-他们肯定把我搞糊涂了:)顺便说一句,在上问这类问题(即关于NLP/贝叶斯统计数据的讨论)可能会得到更好的结果。这是一个非常好的答案,谢谢,抱歉没有指出整个参考问题,祝你好运试图理解Dirichlet过程-他们肯定把我搞糊涂了:)顺便说一句,在上问这些问题(即关于NLP/贝叶斯统计数据的讨论)可能会得到更好的结果。