R 树和逻辑给出不同的结果
我试图分析两个自变量(比如x1和x2)对因变量(y二进制var)的影响。 当我使用rpart或信息增益时,结果表明x1比x2更重要。(先在x1上拆分,信息增益也更大)R 树和逻辑给出不同的结果,r,tree,glm,R,Tree,Glm,我试图分析两个自变量(比如x1和x2)对因变量(y二进制var)的影响。 当我使用rpart或信息增益时,结果表明x1比x2更重要。(先在x1上拆分,信息增益也更大) 当我在y~x1+x2上使用glm时,结果显示x2非常显著,而x1不显著。谁能帮我解释一下原因,我应该用哪一个?谢谢 因为树和逻辑回归遵循不同的算法,所以它们完全可能给出不同的结果 这通常意味着 x1和x2是相关的 x1和x2都不能很好地预测y 如果它们是相关的,则使用PCA或类似技术来降低它们的相关性。否则,使用哪一个取决于您的数
当我在y~x1+x2上使用glm时,结果显示x2非常显著,而x1不显著。谁能帮我解释一下原因,我应该用哪一个?谢谢 因为树和逻辑回归遵循不同的算法,所以它们完全可能给出不同的结果 这通常意味着
x1
和x2
是相关的x1
和x2
都不能很好地预测y
只要记住树是吵闹的。随机林(随机林包)可能是一个更好的模型。这个问题似乎离题了,因为它是关于统计方法和解释,而不是编程,并且已经标记为迁移到交叉验证。一旦迁移到交叉验证,您可能还需要考虑编辑问题以添加更多的信息(例如,<代码>摘要())< /代码>的结果。