adaboost和gradient boost不同的地方在于,adaboost不需要求梯度。那么adaboost模型为什么还会有learning rate?
非常困惑,谢谢解答!
1个回答
adaboost没有用到梯度下降,adaboost中的learning rate也不是步长,这里的学习率只是指的每个树的权重的衰减速度。adaboost会逐一产生很多随机的决策树,每棵树的权重不同,learning rate就是权重衰减的速率。
sklearn文档的官方说法是
learning_rate : float, optional (default=1.)
Learning rate shrinks the contribution of each classifier by learning_rate.
相关主题
线性可分是什么意思?
1回答
knn推导过程中的一个细节
2回答
欠采样后概率还原问题
0回答
k-NN的k取1会怎么样
2回答
kNN算法有哪些缺点?
6回答
线性回归的bagging
2回答
逻辑回归的前提假设是什么?
1回答
我们谢绝在回答前讲“生动”的故事。
我们谢绝“这么简单,你自己想”、“书上有的,你认真看”这类的回答;如果你认为对方的提问方式或者内容不妥,你可以直接忽略该问题,不用进行任何作答,甚至可以对该问题投反对票。
我们谢绝答非所问。
我们谢绝自己不会、硬要回答。
我们感激每一个用户在编写答案时的努力与付出!