Machine learning 二阶逐点互信息中计算β的错误

Machine learning 二阶逐点互信息中计算β的错误,machine-learning,statistics,nlp,Machine Learning,Statistics,Nlp,我遵循了这条规则,但我的结果与论文中的结果不符 当n=9时,segma=0.7,f(W1)=11 论文中的结果为beta1=6,我的结果为1.67 这是怎么回事 谁知道这个算法,这里的beta是指什么 你发表的论文的算法有点错误,所以你不应该依赖它。与本文中的示例一起尝试以下内容: 请在文章中发布参考或链接,以及代码链接,以便人们能够帮助理解问题所在。我这里的问题是数学问题,了解此算法的人可以帮助我了解这里所指的测试版内容?您的问题更适合我。或者可能。但不是关于StackOverflow,因为它

我遵循了这条规则,但我的结果与论文中的结果不符

当n=9时,segma=0.7,f(W1)=11

论文中的结果为beta1=6,我的结果为1.67 这是怎么回事


谁知道这个算法,这里的beta是指什么

你发表的论文的算法有点错误,所以你不应该依赖它。与本文中的示例一起尝试以下内容:


请在文章中发布参考或链接,以及代码链接,以便人们能够帮助理解问题所在。我这里的问题是数学问题,了解此算法的人可以帮助我了解这里所指的测试版内容?您的问题更适合我。或者可能。但不是关于StackOverflow,因为它不是一个特定的编程问题(在实现的意义上),也可能是标签本身所暗示的。[不客气;)]我有这篇论文,我也有同样的问题,我找不到beta到底指的是什么?并试图得到结果,但我在论文中不能得到相同的结果,尽管我遵循了论文中的welllog指的是自然日志的规则。因此,为了得到与本文相同的结果,go:beta1=(ln(ft(W1))^2*(log2(n))/delta=(ln(car)的频率))^2*(log2(43))/0.7=(ln(6))^2*(log2(43))/0.7=24.88谢谢,我现在尝试了,并得到了结果,但是帖子中的例子呢?结果应该是什么?至于beta1指的是什么——它只是一个变量,用你刚才提到的公式计算。在漫游示例中,该公式用于计算beta1的值。然后在演练示例的最后一步中,该值用于计算最终相似度。您链接的论文似乎有错误。结果应该是beta1=(ln(11))^2*(log2(9))/0.7=26.04。