Gradient tree boosting和random forest (随机森林) 有什么区别和联系

  统计/机器学习 监督式学习    浏览次数:1856        分享
2
这两个都属于集成学习(ensemble learning), 但是请问具体有何不同呢?
 

数据挖掘工   2017-09-08 03:12



   1个回答 
2

随机森林属于平行集成(parallel ensemble), 也就是同时训练若干个决策树模型,希望它们尽量地相互独立,然后对所有的决策树的预测结果进行平均作为最终的预测结果。

Gradient Tree Boosting属于连续集成(consecutive ensemble),也就是有顺序地训练若干的决策树模型。其大致过程如下。首先训练出一个决策树模型,接着再训练一个决策树,而这个新的决策树的目标变量(也就是想要预测的值)是前面所有决策树的预测结果和真实值之间的误差(residual)。也就是Gradient Tree Boosting是一个连续累加的过程。

SofaSofa数据科学社区DS面试题库 DS面经

sjtufrc   2017-09-08 05:05



  相关主题

随机森林警告:A column-vector y was passed when a 1d array was expected   1回答

随机森林是如何计算测试样本的概率的?   1回答

python sklean中的决策树是用的哪一种决策树算法?   2回答

决策树剪枝有什么策略或者注意事项?   2回答

决策树可以做多元分类吗?   1回答

决策树是如何得到量化的概率,不只是0或1的标签?   2回答

决策树怎么做增量学习或者online学习?   1回答

关于knn算法中kd树的问题   1回答

剪枝是什么意思   1回答

Adaboost里的树有没有可能权重是负数?   1回答

决策树算法ID3,C4.5和CART的特点、异同?   3回答

gbdt为什么需要泰勒公式展开进行节点分裂计算   2回答



回答问题时需要注意什么?

我们谢绝在回答前讲“生动”的故事。

我们谢绝“这么简单,你自己想”、“书上有的,你认真看”这类的回答;如果你认为对方的提问方式或者内容不妥,你可以直接忽略该问题,不用进行任何作答,甚至可以对该问题投反对票。

我们谢绝答非所问。

我们谢绝自己不会、硬要回答。

我们感激每一个用户在编写答案时的努力与付出!