GBDT和XGBoost在叶子节点权重计算上有什么不同?

  统计/机器学习 监督式学习    浏览次数:271        分享
0

GBDT叶子节点权重由所有分到该叶子节点的样本残差均值得到,而XGBoost由所有分到该叶子节点的一阶梯度和二阶梯度计算得到,是这样吗?

 

AmarantH   2021-03-17 07:19



    还没有回答。我来答!  


  相关主题

xgboost怎么调参?   9回答

xgboost是怎么做到regularization的?   2回答

xgboost里怎么使用KS值?   1回答

xgboost的FIT问题   1回答

如何理解xgboost與cart節點分數?   2回答

xgboost可以做回归预测吗?   2回答

对于xgboost,还有必要做很多特征工程吗?   3回答

为什么lightgbm比xgb快?   2回答

xgboost中的参数min_child_weight是什么意思?   1回答

Tree Shap value for xgboost   2回答

为啥Xgboost比GradientBoost好那么多?   6回答

XGBoost使用hyperop调参的度量集   1回答



回答问题时需要注意什么?

我们谢绝在回答前讲“生动”的故事。

我们谢绝“这么简单,你自己想”、“书上有的,你认真看”这类的回答;如果你认为对方的提问方式或者内容不妥,你可以直接忽略该问题,不用进行任何作答,甚至可以对该问题投反对票。

我们谢绝答非所问。

我们谢绝自己不会、硬要回答。

我们感激每一个用户在编写答案时的努力与付出!