决策树的深度和数据特征个数的关系

  统计/机器学习 监督式学习    浏览次数: 763
1

我的数据集只有四个特征,为什么决策树的深度可以是大于四的?

这四个特征用完之后,决策树为什么还能继续分叉?

决策树的深度是应该小于等于数据特征个数的关系吗?


新人刚入ML的坑,问题小白,多多包涵。

 

cyh   2017-12-13 23:55



   1个回答 
6

你理解错了,树的深度和特征的个数没有什么必然联系。

对于二元特征来说,只能被使用一次。可是对于一个数值特征,它可以被反复使用,而不只是使用一次。

下面就是一个小例子,年龄这个特征被用了两次。此时树的深度是2。


岛歌   2017-12-14 12:22

谢谢大牛! - cyh   2018-03-15 09:15


  相关主题

随机森林(random forest)和支持向量机(SVM)各有什么优劣   1回答

决策树怎么做增量学习或者online学习?   1回答

Extra Tree算法   1回答

Adaboost里的树有没有可能权重是负数?   1回答

决策树可以做多元分类吗?   1回答

决策树算法ID3,C4.5和CART的特点、异同?   3回答

决策树的熵是什么?怎么用熵来选分叉?   1回答

求问:Cart分类树为什么是基尼指数最小化准则   1回答

决策树剪枝有什么策略或者注意事项?   2回答

剪枝是什么意思   1回答

Gradient tree boosting和random forest (随机森林) 有什么区别和联系   1回答

决策树是如何得到量化的概率,不只是0或1的标签?   2回答



回答问题时需要注意什么?

我们谢绝在回答前讲“生动”的故事。

我们谢绝“这么简单,你自己想”、“书上有的,你认真看”这类的回答;如果你认为对方的提问方式或者内容不妥,你可以直接忽略该问题,不用进行任何作答,甚至可以对该问题投反对票。

我们谢绝答非所问。

我们谢绝自己不会、硬要回答。

我们感激每一个用户在编写答案时的努力与付出!