例如将GBDT中的弱分类器换成LR?
3个回答
对线性回归boost并没有意义,因为叠加多个线性回归最后还是线性回归
比如第一个线性回归a1x+b1
第二个线性回归a2x+b2
将这两个相加,得到的是
(a1+a2)x+(b1+b2),依然是个线性回归
线性回归是有解析解的,一旦求出一个线性回归,那一定是最优的,叠加也没有意义
这个和xgb中的弱分类器LR是一个意思,其实本质上没有被boost,只是被迭代求解而已。
可以参考我之前问过的问题:xgboost的gblinear是什么意思?
例如将GBDT中的弱分类器换成LR?
对线性回归boost并没有意义,因为叠加多个线性回归最后还是线性回归
比如第一个线性回归a1x+b1
第二个线性回归a2x+b2
将这两个相加,得到的是
(a1+a2)x+(b1+b2),依然是个线性回归
线性回归是有解析解的,一旦求出一个线性回归,那一定是最优的,叠加也没有意义
这个和xgb中的弱分类器LR是一个意思,其实本质上没有被boost,只是被迭代求解而已。
可以参考我之前问过的问题:xgboost的gblinear是什么意思?