adaboost里的feature importance和随机森林里的feature importance是一回事吗?

  统计/机器学习 监督式学习 特征选择 Python    浏览次数:62        分享
0

sklearn里这两个模型都有feature_importances_,这个特征重要性在这两个不同算法中是一回事吗?

 

我是雷哥   2019-12-02 10:49



    还没有回答。我来答!  


  相关主题

对于树模型,需不需要特征筛选   1回答

随机森林给出的变量的Importance是怎么来的   2回答

随机森林每次用多少个特征?   2回答

怎么理解决策树是模型自己在做interaction?   2回答

为什么特征重要性约大,在决策树里分裂的顺序却是越靠后呢?   1回答

python里实现一个简单的决策树   1回答

对于数值特征,决策树是如何决定阈值的?   3回答

随机森林的模型一般都很大么?   1回答

Gradient tree boosting和random forest (随机森林) 有什么区别和联系   1回答

决策树的深度和数据特征个数的关系   1回答

怎么理解lightgbm中的直方图法选择分裂点?   0回答

决策树可以做多元分类吗?   1回答



回答问题时需要注意什么?

我们谢绝在回答前讲“生动”的故事。

我们谢绝“这么简单,你自己想”、“书上有的,你认真看”这类的回答;如果你认为对方的提问方式或者内容不妥,你可以直接忽略该问题,不用进行任何作答,甚至可以对该问题投反对票。

我们谢绝答非所问。

我们谢绝自己不会、硬要回答。

我们感激每一个用户在编写答案时的努力与付出!