随机森林回归输出的结果除了采用每棵决策树的平均值,还有别的方法吗?

  统计/机器学习 回归分析 开放问题    浏览次数:177        分享
0

随机森林回归输出的结果除了采用每棵决策树的平均值,还有别的方法吗?只是好奇问问

 

双鸭熊仔   2020-06-19 00:57



   1个回答 
3

随机森林属于Bagging集成学习中的一种,集成学习中的单模型结合策略 主要有三种方式,有平均法,投票法,学习法,具体为:

(1) 平均法 

对于数值类的回归预测问题,通常使用的结合策略是平均法,也就是说,对于若干和弱学习器的输出进行平均得到最终的预测输出。  

(2) 投票法  

对于分类问题的预测,我们通常使用的是投票法。假设我们的预测类别是{c1,c2,...cK}对于任意一个预测样本x,我们的T个弱学习器的预测结果分别是(h1(x),h2(x)...hT(x))。最简单的投票法是相对多数投票法,也就是我们常说的少数服从多数,也就是T个弱学习器的对样本x的预测结果中,数量最多的类别ci为最终的分类类别。如果不止一个类别获得最高票,则随机选择一个做最终类别。稍微复杂的投票法是绝对多数投票法,也就是我们常说的要票过半数。在相对多数投票法的基础上,不光要求获得最高票,还要求票过半数。否则会拒绝预测。更加复杂的是加权投票法,和加权平均法一样,每个弱学习器的分类票数要乘以一个权重,最终将各个类别的加权票数求和,最大的值对应的类别为最终类别。  

(3)学习法  

上两种的方法都是对弱学习器的结果做平均或者投票,相对比较简单,但是可能学习误差较大,于是就有了学习法这种方法,对于学习法,代表方法是stacking,当使用stacking的结合策略时, 我们不是对弱学习器的结果做简单的逻辑处理,而是再加上一层学习器,也就是说,我们将训练集弱学习器的学习结果作为输入,将训练集的输出作为输出,重新训练一个学习器来得到最终结果。在这种情况下,我们将弱学习器称为初级学习器,将用于结合的学习器称为次级学习器。对于测试集,我们首先用初级学习器预测一次,得到次级学习器的输入样本,再用次级学习器预测一次,得到最终的预测结果。

SofaSofa数据科学社区DS面试题库 DS面经

iqdutao   2020-07-01 09:14



  相关主题

决策回归树   2回答

随机森林回归   1回答

Extra Tree算法   1回答

决策树剪枝有什么策略或者注意事项?   2回答

剪枝是什么意思   1回答

为什么我用随机森林模型每次的score都不同 差异很大   2回答

关于为什么要用GBDT的疑问   1回答

请教lightGBM中的level wise具体计算步骤是怎样的?   1回答

随机森林警告:A column-vector y was passed when a 1d array was expected   1回答

Gradient tree boosting和random forest (随机森林) 有什么区别和联系   1回答

关于knn算法中kd树的问题   1回答

决策树的深度和数据特征个数的关系   1回答



回答问题时需要注意什么?

我们谢绝在回答前讲“生动”的故事。

我们谢绝“这么简单,你自己想”、“书上有的,你认真看”这类的回答;如果你认为对方的提问方式或者内容不妥,你可以直接忽略该问题,不用进行任何作答,甚至可以对该问题投反对票。

我们谢绝答非所问。

我们谢绝自己不会、硬要回答。

我们感激每一个用户在编写答案时的努力与付出!