R 随机森林:如何获得100%的精度?

R 随机森林:如何获得100%的精度?,r,machine-learning,R,Machine Learning,我有一个大约3000个阳性样本和1500个阴性样本的数据集,大约有1000个特征。所有功能都是实数。我想用“randomForest”R包训练一个randomForest分类器 问题是我需要一个在训练数据集上具有100%精度(TP/TP+FP)的分类器。然而,我很难通过调整经过训练的随机林中的$vots来实现这一点 我想知道是否有人有经验或对这种问题有任何想法?如果你有任何线索,请给我一些提示。提前谢谢 我愿意接受任何其他机器学习方法,如果它能保证100%的精度。如果你不能通过修改投票分数阈值来

我有一个大约3000个阳性样本和1500个阴性样本的数据集,大约有1000个特征。所有功能都是实数。我想用“randomForest”R包训练一个randomForest分类器

问题是我需要一个在训练数据集上具有100%精度(TP/TP+FP)的分类器。然而,我很难通过调整经过训练的随机林中的$vots来实现这一点

我想知道是否有人有经验或对这种问题有任何想法?如果你有任何线索,请给我一些提示。提前谢谢


我愿意接受任何其他机器学习方法,如果它能保证100%的精度。

如果你不能通过修改投票分数阈值来做到这一点,那么你必须以某种方式修改树本身

一种方法是实际训练加权树。不幸的是,我现在没有这方面的指针,但这与在中所做的类似(但他们这样做是为了提升)

(再想一想,您是否查看了参数:
classwt
,该参数的注释为“类的优先级。不必相加为1。为回归而忽略”)


一个要点是:假阳性率并不等于
FP/(FP+TP)
。这是真的<代码> FP/(FP+TN)或等同地<代码> FP/“实际否定”< /C>,因为您只想考虑有多少假阳性作为实际否定的函数。

谢谢您的回复。我尝试了投票分数,但效果不是很好,因为一些阴性样本与阳性标签的票数接近1。我尝试了一点classwt,但效果不是很好(一些线程认为该功能尚未在R中实现)。您可能只需要更好的功能。Recall=TP/(TP+FN)。精度=TP/(TP+FP)。