Random Forest会有过拟合的情况发生吗?
1个回答
相对于单个的Decision Tree,Random Forest不太容易over-fitting。Over-fitting的主要原因是因为模型学习了太多样本中的随机误差。因为Random Forest随机选择了样本和特征,并且将很多这样的随机树进行了平均,这些随机误差也随之被平均,乃至相互抵消了。但是这不代表它不会
很多人说Random Forest不会over-fitting。相信很多人也亲身经历过,我自己也见识过过RandomForest over-fitting了。
防止RandomFroest过拟合,一个方法是控制每个树的深度,深的树有可能会过拟合;另外一个是对模型进行交叉验证。
相关主题
Random Forest和Tree Bagging什么区别?
2回答
为什么过拟合不好?
6回答
线下训练集和测试集防过拟合
1回答
训练集加入噪声防止over fitting还是加剧overfitting?
3回答
无监督学习(比如K Means)里怎么加正则项来防止过拟合
3回答
正则项里的L1,L2是什么意思?
1回答
L0 norm 正则是什么意思?
1回答
如何简单理解正则化
1回答
决策树有哪些缺点?
2回答
我们谢绝在回答前讲“生动”的故事。
我们谢绝“这么简单,你自己想”、“书上有的,你认真看”这类的回答;如果你认为对方的提问方式或者内容不妥,你可以直接忽略该问题,不用进行任何作答,甚至可以对该问题投反对票。
我们谢绝答非所问。
我们谢绝自己不会、硬要回答。
我们感激每一个用户在编写答案时的努力与付出!