Machine learning 考虑三个相互独立的分类器A,B,C,具有相等的错误概率:

Machine learning 考虑三个相互独立的分类器A,B,C,具有相等的错误概率:,machine-learning,probability,ensemble-learning,Machine Learning,Probability,Ensemble Learning,问题是: 考虑错误概率相等的三个相互独立的分类器A、B、C: Pr(errA)=Pr(errB)=Pr(errC)=t 让D是另一个分类器,它获得A、B和C的多数票 •什么是Pr(errD) •绘制Pr(errD)作为t的函数 •对于t的什么值,D的性能优于其他三个分类器中的任何一个 我的问题是: (1) 我无法计算D的错误概率。我以为它是1减去α(1-α),但我不确定 (2) 如何绘制t(Pr(errD))?我假设在没有找到Pr(errD)的情况下,我可以绘制它 (3) 在这里,我也无法理

问题是:

考虑错误概率相等的三个相互独立的分类器A、B、C:

Pr(errA)=Pr(errB)=Pr(errC)=t

让D是另一个分类器,它获得A、B和C的多数票

•什么是Pr(errD)

•绘制Pr(errD)作为t的函数

•对于t的什么值,D的性能优于其他三个分类器中的任何一个



我的问题是:

(1) 我无法计算D的错误概率。我以为它是1减去α(1-α),但我不确定

(2) 如何绘制t(Pr(errD))?我假设在没有找到Pr(errD)的情况下,我可以绘制它


(3) 在这里,我也无法理解。相比之下,我应该如何确定D的性能?

如果我理解得很好,你的问题可以用简单的术语来表述,而无需任何集成学习

假设
D
是3个分类器投票的结果,
D
是错误的,当且仅当至多有一个估计器是正确的

A、B、C是独立的,因此:

  • 不正确的概率为t^3

  • 其中一个是对的,而另外两个是错的概率是3(1-t)t^2(因子3是因为有三种方法可以实现这一点)

所以p(errD)=t^3+3(1-t)t^2=-2t^3+3t^2

您应该能够在间隔[0:1]中将其绘制为t的函数,而不会有太多困难


至于第三个问题,只需解p(errA)-p(errD)>0(这意味着D的错误概率小于A,因此其性能更好)。如果你解决了这个问题,你会发现这个条件是t谢谢很多@MaximeKan!我被这个问题困住了。很高兴它有帮助!:)