adaboost里的feature importance和随机森林里的feature importance是一回事吗?

  统计/机器学习 监督式学习 特征选择 Python    浏览次数:1639        分享
0

sklearn里这两个模型都有feature_importances_,这个特征重要性在这两个不同算法中是一回事吗?

 

我是雷哥   2019-12-02 10:49



   1个回答 
0

算法差不多,每个树里都可以算出一个feature importance,Random Forest是对每棵树的feature importance求均值,Adaboost是对每棵树的feature importance求加权均值。

SofaSofa数据科学社区DS面试题库 DS面经

zl_pku   2020-01-11 23:39



  相关主题

对于树模型,需不需要特征筛选   2回答

怎么理解决策树是模型自己在做interaction?   2回答

对于数值特征,决策树是如何决定阈值的?   3回答

怎么理解lightgbm中的直方图法选择分裂点?   1回答

为什么特征重要性约大,在决策树里分裂的顺序却是越靠后呢?   1回答

随机森林给出的变量的Importance是怎么来的   2回答

随机森林每次用多少个特征?   2回答

python里实现一个简单的决策树   1回答

怎么得到randomforestregressor里每棵树的预测结果?   1回答

Extra Tree算法   1回答

随机森林中增加树的数量对于偏差和方差的影响   2回答

Gradient tree boosting和random forest (随机森林) 有什么区别和联系   1回答



回答问题时需要注意什么?

我们谢绝在回答前讲“生动”的故事。

我们谢绝“这么简单,你自己想”、“书上有的,你认真看”这类的回答;如果你认为对方的提问方式或者内容不妥,你可以直接忽略该问题,不用进行任何作答,甚至可以对该问题投反对票。

我们谢绝答非所问。

我们谢绝自己不会、硬要回答。

我们感激每一个用户在编写答案时的努力与付出!