Parameters Rapidminer:解释决策树参数

Parameters Rapidminer:解释决策树参数,parameters,decision-tree,rapidminer,Parameters,Decision Tree,Rapidminer,一般来说,我对rapidminer和数据挖掘非常陌生,但我尝试粗略地搜索rapidminer决策树参数中的所有参数的含义,结果发现它们都不存在。我知道什么是叶子,什么是节点,我正想了解一些参数,但如果能分享任何知识,我将不胜感激。 也就是说,他们都是干什么的? 标准 拆分的最小大小 最小叶大小 最小增益 最大深度 信心 同样在不使用优化的情况下,跟踪误差是获得最佳预测的最佳方法吗? 谢谢 我喜欢使用RAPIDMINER操作符引用。这是一个PDF文件,可在以下位置获得: 本文档中的信息优于应用程序

一般来说,我对rapidminer和数据挖掘非常陌生,但我尝试粗略地搜索rapidminer决策树参数中的所有参数的含义,结果发现它们都不存在。我知道什么是叶子,什么是节点,我正想了解一些参数,但如果能分享任何知识,我将不胜感激。 也就是说,他们都是干什么的? 标准 拆分的最小大小 最小叶大小 最小增益 最大深度 信心

同样在不使用优化的情况下,跟踪误差是获得最佳预测的最佳方法吗? 谢谢
我喜欢使用RAPIDMINER操作符引用。这是一个PDF文件,可在以下位置获得:

本文档中的信息优于应用程序本身中的信息。例如: …目前的案例或示例数量不到一定数量 子树。这可以通过使用分割参数的最小大小进行调整

假设你的标签是“蓝色”、“红色”和“绿色”。决策树有一个节点,其中有2个“绿色”和1个“蓝色”示例。如果拆分的最小大小为4,那么决策树将不会创建新分支,因为节点中只有三个示例。它只会接受这样一个事实,即即使答案并不完美,它也会将节点声明为将示例分类为“绿色”的叶子

最小叶片大小相似。如果决策树的每个分支都指向一个示例,那么即使它可能提供最准确的分类,它也不是很有用。因此,您可以设置树中按叶分类的示例的最小数量。好的值取决于您的数据集和需要。运行决策树,如果有太多的叶子,每次运行中只有几个示例,请增加此参数的值

标准和最小增益稍微复杂一些。标准是RAPD Minder用来判断决策树及其节点有多好的算法。有几种策略,我不知道它们是如何工作的。该标准是RapidMiner用来决定是在节点下创建子树,还是将节点声明为叶子的标准之一。它还应该控制一个子树从子树的根节点延伸出多少分支

决策树有更多的选项,每种决策树可以有不同的参数。我通过阅读一个参数的描述来了解它们,假设如果我改变参数会发生什么,然后创建一个新的决策树,看看我的假设是否正确。做实验,玩得开心