adaboost里的learning rate是什么意思?

  统计/机器学习 监督式学习    浏览次数:6769        分享
0

adaboost和gradient boost不同的地方在于,adaboost不需要求梯度。那么adaboost模型为什么还会有learning rate?

非常困惑,谢谢解答!


 

whanq   2017-12-21 16:09



   1个回答 
3

adaboost没有用到梯度下降,adaboost中的learning rate也不是步长,这里的学习率只是指的每个树的权重的衰减速度。adaboost会逐一产生很多随机的决策树,每棵树的权重不同,learning rate就是权重衰减的速率。


sklearn文档的官方说法是

learning_rate : float, optional (default=1.)

Learning rate shrinks the contribution of each classifier by learning_rate. 


SofaSofa数据科学社区DS面试题库 DS面经

飞翔钉子   2017-12-25 14:04



  相关讨论

欠采样后概率还原问题

MLR分片模型是什么模型?

为什么LR要用Sigmoid函数?

为什么说knn是惰性算法

关于方差和偏差和噪声

knn推导过程中的一个细节

KNN中K值的选择

rulefit和gdbt+lr有什么区别?

怎么理解platt scaling?

stacking模型里每个子模型的权重如何确定?

  随便看看

多个独立同分布的均匀随机变量的最小值的期望是多少?

怎么对pandas dataframe的列求众数

roc auc小于0.5是什么情况?

plt.show()之后matplotlib图像依然不展示

为什么自然常数e等于阶乘的倒数的和?