梯度上升算法是什么?

  数学 数值计算 最优化    浏览次数: 740
-1

《机器学习实战》里面提到了梯度上升,有点懵,我只听说过梯度下降

梯度上升算法又是什么意思?和梯度下降是什么关系?


 

杨业勇   2018-03-11 10:21



   2个回答 
4

其实就是一回事

我正好看过那一段

对于损失函数,我们要求最小值,所以是梯度下降(梯度的反方向)

对于似然函数,我们要求最大值,所以是梯度上升(梯度的同方向)

本质都是利用梯度来解最值


SofaSofa数据科学社区 DS面经 问答 实战

曾经是科比   2018-03-12 21:55

2

要求最小值(如loss function)的时候,用梯度下降

要求最大值(如score function)的时候,用梯度上升


SofaSofa数据科学社区 DS面经 问答 实战

sasa   2018-03-16 01:35



  相关主题

对于小批量随机剃度下降法(mini-batch SGD),如何选择每批样本的数量?   1回答

学习率不当会导致sgd不收敛吗?   4回答

最速下降法与梯度下降法   1回答

随机平均梯度法(Stochasitc Average Gradient)和随机梯度下降(SGD)有什么区别   3回答

RMSProp的直白解释   1回答

随机梯度下降(sgd)的收敛问题   3回答

nesterov’s momentum和momentum的区别?   0回答

Adam优化算法   1回答

用SGD时陷入局部最优解的解决方法   3回答

牛顿法到底是一阶优化算法还是二阶优化算法?   2回答

为什么梯度的反方向是函数下降最快的方向?   3回答

Newton–Raphson和牛顿法区别?   1回答



回答问题时需要注意什么?

我们谢绝在回答前讲“生动”的故事。

我们谢绝“这么简单,你自己想”、“书上有的,你认真看”这类的回答;如果你认为对方的提问方式或者内容不妥,你可以直接忽略该问题,不用进行任何作答,甚至可以对该问题投反对票。

我们谢绝答非所问。

我们谢绝自己不会、硬要回答。

我们感激每一个用户在编写答案时的努力与付出!