adaboost里的feature importance和随机森林里的feature importance是一回事吗?

  统计/机器学习 监督式学习 特征选择 Python    浏览次数:4422        分享
0

sklearn里这两个模型都有feature_importances_,这个特征重要性在这两个不同算法中是一回事吗?

 

我是雷哥   2019-12-02 10:49



   1个回答 
0

算法差不多,每个树里都可以算出一个feature importance,Random Forest是对每棵树的feature importance求均值,Adaboost是对每棵树的feature importance求加权均值。

SofaSofa数据科学社区DS面试题库 DS面经

zl_pku   2020-01-11 23:39



  相关讨论

对于树模型,需不需要特征筛选

GBDT的数据在使用前有什么需要注意的吗?

随机森林每次用多少个特征?

随机森林给出的变量的Importance是怎么来的

为什么特征重要性约大,在决策树里分裂的顺序却是越靠后呢?

对于数值特征,决策树是如何决定阈值的?

怎么理解决策树是模型自己在做interaction?

怎么理解lightgbm中的直方图法选择分裂点?

使用lightgbm,训练前对数据特征赋予权重是否对结果有影响

gbdt如何对连续特征离散化

  随便看看

多重检验中的FDR(false discovery rate, 错误发现率)是什么?

随机梯度下降(sgd)的收敛问题

柯西分布没有数学期望

两个独立的正态随机变量的乘积服从什么分布?

多个独立同分布的均匀随机变量的最小值的期望是多少?