怎么理解随机森林的oob error?

  统计/机器学习 监督式学习 模型验证    浏览次数: 174
1

怎么理解随机森林的oob error?有了oob error是不是就不用做交叉验证了?

 

图不二   2018-08-13 21:32



   2个回答 
9

严格来说,OOB error不能完全取代交叉验证(看完下文就知道了)。

OOB(Out-of-bag) error也叫做包外误差,是随机森林中的一种度量预测误差的方式。

我们知道随机森林是由很多数组成的,而每棵树当中只用了部分样本来训练。

假设训练集中一共有$N$个样本$x_1,x_2,\cdots,x_N$,随机森林中有$M$棵树,$T_1,T_2,\cdots,T_M$。

对于一个样本$x_i$,我们用那些没有使用$x_i$训练的树组成的小随机森林来预测$x_i$,其预测误差就是$x_i$在这个随机森林上的OOB error,$\text{Err}_i$。

整个随机森林的OOB误差就是所有训练样本的平均OOB误差,

$$\text{OOB Error}=\sum^{N}_{i=1}\frac{\text{Err}_i}{N}$$

通常来说,OOB误差会比交叉验证的误差更大,因为估计OOB时,我们只用了随机森林中的部分树,没有使用完整的模型,限制了模型的发挥。但OOB省去了交叉验证中多次训练的步骤,所以比较方便,节约了时间。


zl_pku   2018-09-14 07:34

2

是的,不需要交叉验证了。

nobodyoo1   2018-08-16 00:33



  相关主题

随机森林如何调参?   3回答

决策树算法ID3,C4.5和CART的特点、异同?   3回答

求问:Cart分类树为什么是基尼指数最小化准则   1回答

剪枝是什么意思   1回答

随机森林(random forest)和支持向量机(SVM)各有什么优劣   1回答

决策树的熵是什么?怎么用熵来选分叉?   1回答

决策树是如何得到量化的概率,不只是0或1的标签?   2回答

Adaboost里的树有没有可能权重是负数?   1回答

决策树剪枝有什么策略或者注意事项?   2回答

决策树的深度和数据特征个数的关系   1回答

Extra Tree算法   1回答

关于knn算法中kd树的问题   0回答



回答问题时需要注意什么?

我们谢绝在回答前讲“生动”的故事。

我们谢绝“这么简单,你自己想”、“书上有的,你认真看”这类的回答;如果你认为对方的提问方式或者内容不妥,你可以直接忽略该问题,不用进行任何作答,甚至可以对该问题投反对票。

我们谢绝答非所问。

我们谢绝自己不会、硬要回答。

我们感激每一个用户在编写答案时的努力与付出!