Warning: file_get_contents(/data/phpspider/zhask/data//catemap/7/machine-learning/4.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Math n个弱分类器组合的精度极限_Math_Machine Learning - Fatal编程技术网

Math n个弱分类器组合的精度极限

Math n个弱分类器组合的精度极限,math,machine-learning,Math,Machine Learning,对于数据集D(n*m),n是样本数,m是特征数。 有k个弱分类器,每个分类器的准确率为60%。 有多少弱分类器组合可以将准确率提高到90%? 这个问题能用数学公式解决吗 如果使用2个分类器,准确率为60% 如果使用3个分类器,准确率为64.8%(3*60%^2*40%+60%^3) 是吗?你的问题背后的想法令人困惑。 当您选择的每个模型对单个类都有很好的性能时,这就可以工作了。因此,您可以根据类为每个类分配权重,并生成最终输出 比如说,, 您有3个类(C1、C2、C3) 假设模型A,很好地预测了

对于数据集D(n*m),n是样本数,m是特征数。 有k个弱分类器,每个分类器的准确率为60%。 有多少弱分类器组合可以将准确率提高到90%? 这个问题能用数学公式解决吗

如果使用2个分类器,准确率为60% 如果使用3个分类器,准确率为64.8%(3*60%^2*40%+60%^3)
是吗?

你的问题背后的想法令人困惑。 当您选择的每个模型对单个类都有很好的性能时,这就可以工作了。因此,您可以根据类为每个类分配权重,并生成最终输出

比如说,, 您有3个类(C1、C2、C3)

假设模型A,很好地预测了C1,那么你可以把C1的最终概率设为

_C1的概率=模型_A_概率0.7+模型_B_概率0.2+模型_C_概率*0.1

同样,您可以对其他类应用相同的规则。您可能必须更改指定的权重,这通常是基于特定类的每个模型的精度来完成的。只有当模型对不同的类执行不同的操作时,这才有效


如果您想了解更多信息,可以查看xgboost alogrithm,本博客对此做了很好的解释:

对不起,我可能没有把问题说清楚。我们只知道数据有n个样本和m维特征,我们无法训练模型,所有弱分类器都经过训练。我们只能将它们结合起来以提高准确性。所以我们不能使用xgboost或其他算法。在这种情况下,装袋(投票)似乎是唯一的办法。假设数据有两类,那么投票就是一种方式。