Machine learning 为什么在决策树分类中使用交叉验证?

Machine learning 为什么在决策树分类中使用交叉验证?,machine-learning,classification,decision-tree,cross-validation,nearest-neighbor,Machine Learning,Classification,Decision Tree,Cross Validation,Nearest Neighbor,我试图学习决策树(和其他模型),遇到了交叉验证,现在我首先想到交叉验证用于确定模型的最佳参数。例如,决策树分类中的最佳最大树深度或k近邻分类中的最佳近邻数。但当我看到一些例子时,我认为这可能是错误的 这是错的吗 交叉验证用于以更准确的方式确定模型的准确性,例如,在n倍交叉验证中,您将数据划分为n个分区,使用n-1部分作为序列集,使用1部分作为测试集,并对所有分区重复此操作(每个分区作为测试集一次),然后平均结果以获得更好的结果评估你的模型的准确性啊,我明白了,所以这与为你的模型找到最佳参数无关?

我试图学习决策树(和其他模型),遇到了交叉验证,现在我首先想到交叉验证用于确定模型的最佳参数。例如,决策树分类中的最佳最大树深度或k近邻分类中的最佳近邻数。但当我看到一些例子时,我认为这可能是错误的


这是错的吗

交叉验证用于以更准确的方式确定模型的准确性,例如,在n倍交叉验证中,您将数据划分为n个分区,使用n-1部分作为序列集,使用1部分作为测试集,并对所有分区重复此操作(每个分区作为测试集一次),然后平均结果以获得更好的结果评估你的模型的准确性

啊,我明白了,所以这与为你的模型找到最佳参数无关?@azeaze不是直接的。@NaWeeD请小心,避免听起来权威,尤其是在向新用户讲话时(OP显然是其中之一);“不直接”作为回答是不够的,因为CV确实被用作模型优化过程中的一个组件。交叉验证用于a)模型优化和b)模型评估