为什么特征重要性约大,在决策树里分裂的顺序却是越靠后呢?

  统计/机器学习 监督式学习 特征选择    浏览次数:4152        分享
0

请教一个关于决策树的特征重要性的问题:

为什么特征重要性约大,分裂的顺序却是越靠后呢?

case请见这篇帖子:

https://blog.csdn.net/DKY10/article/details/84843864

case中的这个DEMO:


三个X的特征重要性分别为:feat importance = [0.25 0.08333333 0.04166667]

求教!谢谢。

 

vonta   2019-08-28 21:19



   1个回答 
2

特征重要性和使用的先后没有必然联系的,你上面的例子应该只是巧合。

特征的重要性和节点中样本的个数有关,在其他情况一样时,节点样本个数越多,特征越重要。换句话,反而是越靠前的有可能越重要。

SofaSofa数据科学社区DS面试题库 DS面经

何立诚   2019-08-30 23:16



  相关讨论

GBDT的数据在使用前有什么需要注意的吗?

对于数值特征,决策树是如何决定阈值的?

随机森林每次用多少个特征?

对于树模型,需不需要特征筛选

怎么理解决策树是模型自己在做interaction?

随机森林给出的变量的Importance是怎么来的

adaboost里的feature importance和随机森林里的feature importance是一回事吗?

怎么理解lightgbm中的直方图法选择分裂点?

使用lightgbm,训练前对数据特征赋予权重是否对结果有影响

gbdt如何对连续特征离散化

  随便看看

pip install opencv-python失败,难道非要编译安装?

spark里怎么refresh表?

推荐系统算法里的cold start是什么意思?

去掉pandas DataFrame的index的名字

抛的硬币直到连续出现两次正面为止,平均要扔多少次