决策树的深度和数据特征个数的关系

  统计/机器学习 监督式学习    浏览次数:8429        分享
1

我的数据集只有四个特征,为什么决策树的深度可以是大于四的?

这四个特征用完之后,决策树为什么还能继续分叉?

决策树的深度是应该小于等于数据特征个数的关系吗?


新人刚入ML的坑,问题小白,多多包涵。

 

cyh   2017-12-13 23:55



   1个回答 
8

你理解错了,树的深度和特征的个数没有什么必然联系。

对于二元特征来说,只能被使用一次。可是对于一个数值特征,它可以被反复使用,而不只是使用一次。

下面就是一个小例子,年龄这个特征被用了两次。此时树的深度是2。


SofaSofa数据科学社区DS面试题库 DS面经

岛歌   2017-12-14 12:22

谢谢大牛! - cyh   2018-03-15 09:15


  相关主题

决策树剪枝有什么策略或者注意事项?   2回答

怎么理解RandomForest中的max_features?   1回答

Adaboost里的树有没有可能权重是负数?   1回答

python sklean中的决策树是用的哪一种决策树算法?   2回答

决策树是如何得到量化的概率,不只是0或1的标签?   2回答

随机森林是如何计算测试样本的概率的?   0回答

请教lightGBM中的level wise具体计算步骤是怎样的?   1回答

随机森林中增加树的数量对于偏差和方差的影响   2回答

lightgbm使用自定义损失函数后,二分类的预测结果不再是【0,1】区间   0回答

python里实现一个简单的决策树   1回答

Extra Tree算法   1回答

Gradient tree boosting和random forest (随机森林) 有什么区别和联系   1回答



回答问题时需要注意什么?

我们谢绝在回答前讲“生动”的故事。

我们谢绝“这么简单,你自己想”、“书上有的,你认真看”这类的回答;如果你认为对方的提问方式或者内容不妥,你可以直接忽略该问题,不用进行任何作答,甚至可以对该问题投反对票。

我们谢绝答非所问。

我们谢绝自己不会、硬要回答。

我们感激每一个用户在编写答案时的努力与付出!