Machine learning 如何计算决策树的泛化错误率

Machine learning 如何计算决策树的泛化错误率,machine-learning,classification,decision-tree,Machine Learning,Classification,Decision Tree,我正在做《数据挖掘导论》的练习,并被困在关于决策树的以下问题上: 训练 测试 决策树 这个问题要求我使用乐观和悲观的方法计算泛化错误率,答案分别为0.3和0.5。 它们与我的答案0.5和0.7完全不同。根据我的计算,实例3、7、8、9、10是错误分类。 我在谷歌上搜索了很多文档,但都没有解释原因,只是显示了3/10=0.3。 请告诉我我犯了什么错误,谢谢 你搞错了,错误的分类是: 训练中:3、5、6 测试中:12、13、14、15 您的决策树是: 返回+iff(非a和非b)或(a和c

我正在做《数据挖掘导论》的练习,并被困在关于决策树的以下问题上:

训练

测试

决策树

这个问题要求我使用乐观和悲观的方法计算泛化错误率,答案分别为0.3和0.5。 它们与我的答案0.5和0.7完全不同。根据我的计算,实例3、7、8、9、10是错误分类。 我在谷歌上搜索了很多文档,但都没有解释原因,只是显示了3/10=0.3。
请告诉我我犯了什么错误,谢谢

你搞错了,错误的分类是:

  • 训练中:3、5、6
  • 测试中:12、13、14、15
您的决策树是:

  • 返回+iff(非a和非b)或(a和c)
因此,例如对于3:


A=0 B=1 C=0 class=+,你的DT返回-作为A=0和B=1,我认为你的答案是正确的,解决方案手册的答案是错误的,你在这里复制树时出错-在我的书中,叶节点标签从左到右读,+,-,+,-。使用叶节点+、-、-、+的树确实会分别导致乐观和悲观错误估计的30%和50%

使用叶节点+、-、+、-,错误率确实是50%和70%。

您的答案是正确的。 它是“+”iff(非A&非B)| |(A&非C)