随机森林给出的变量的Importance是怎么来的

  统计/机器学习 监督式学习 特征选择    浏览次数: 1167
1

随机森林模型可以给出变量的Importance。这个重要性是怎么来的?有明确的定义吗?

谢谢!


 

kykix   2018-02-04 14:07



   2个回答 
2

sklearn里的importance就是所谓的Gini importance。

一个feature的importance等于这个feature在所有的树里的Gini importance的和。

Gini importance就是树在这个feature进行分叉时,Gini impurity下降的数值。


SofaSofa数据科学社区 DS面经 问答 实战

Josh_Josh   2018-02-14 09:59

1

random forest和xgboost计算feature importance是一样的

可以参考这个问题:在random forest和xgboost这类集成树模型中是如何计算_feature_importance的里的回答

SofaSofa数据科学社区 DS面经 问答 实战

maxroot   2018-10-25 21:01



  相关主题

对于树模型,需不需要特征筛选   1回答

怎么理解决策树是模型自己在做interaction?   2回答

为什么决策树中用熵而不是基尼不纯度来作为划分依据?   2回答

关于knn算法中kd树的问题   1回答

gbdt如何对连续特征离散化   1回答

python里实现一个简单的决策树   1回答

对于数值特征,决策树是如何决定阈值的?   3回答

随机森林中增加树的数量对于偏差和方差的影响   2回答

剪枝是什么意思   1回答

决策树的熵是什么?怎么用熵来选分叉?   1回答

如果采用非等权重的方法集成一个随机森林,会表现得更好嘛?   1回答

随机森林每次用多少个特征?   2回答



回答问题时需要注意什么?

我们谢绝在回答前讲“生动”的故事。

我们谢绝“这么简单,你自己想”、“书上有的,你认真看”这类的回答;如果你认为对方的提问方式或者内容不妥,你可以直接忽略该问题,不用进行任何作答,甚至可以对该问题投反对票。

我们谢绝答非所问。

我们谢绝自己不会、硬要回答。

我们感激每一个用户在编写答案时的努力与付出!