希望有大神从建树和损失函数的角度详细解释下。
3个回答
GBDT和XGB一般是使用logloss作为损失函数。
建树的过程就是寻找最佳分叉点和分叉特征的过程。GBDT是用mse作为分叉和建树的标准。
SofaSofa数据科学社区DS面试题库 DS面经GBDT使用的是回归树,而XGBoost除了回归树还支持其它线性分类器。如果使用回归树,那么返回的值也是连续的,我知道的是可以设定阈值thres来分类,当然可以根据你所分的区间进行分类。
SofaSofa数据科学社区DS面试题库 DS面经 相关主题
xgboost的FIT问题
1回答
xgboost可以做回归预测吗?
2回答
在random forest和xgboost这类集成树模型中是如何计算_feature_importance的
1回答
xgboost为什么会有seed?随机性体现在哪里?
2回答
为啥Xgboost比GradientBoost好那么多?
6回答
如果用xgboost模型,那么还需要先做feature selection吗?
3回答
我们谢绝在回答前讲“生动”的故事。
我们谢绝“这么简单,你自己想”、“书上有的,你认真看”这类的回答;如果你认为对方的提问方式或者内容不妥,你可以直接忽略该问题,不用进行任何作答,甚至可以对该问题投反对票。
我们谢绝答非所问。
我们谢绝自己不会、硬要回答。
我们感激每一个用户在编写答案时的努力与付出!