Newton–Raphson和牛顿法区别?

  数学 数值计算 最优化    浏览次数: 132
0

Newton–Raphson和牛顿法区别?

看了各种资料,感觉它们好像是一回事

 

吃俺一棒   2018-12-22 12:27



   1个回答 
1

他们是一回事,就是叫法不同吧

Newton–Raphson方法有时候是特指一维函数的牛顿法

SofaSofa数据科学社区 DS面经 问答 实战

mrhust   2019-01-08 16:18



  相关主题

用SGD时陷入局部最优解的解决方法   3回答

为什么梯度的反方向是函数下降最快的方向?   3回答

学习率不当会导致sgd不收敛吗?   4回答

梯度上升算法是什么?   2回答

随机平均梯度法(Stochasitc Average Gradient)和随机梯度下降(SGD)有什么区别   3回答

随机梯度下降(sgd)的收敛问题   3回答

牛顿法到底是一阶优化算法还是二阶优化算法?   2回答

RMSProp的直白解释   1回答

最速下降法与梯度下降法   1回答

nesterov’s momentum和momentum的区别?   0回答

对于小批量随机剃度下降法(mini-batch SGD),如何选择每批样本的数量?   1回答

Adam优化算法   1回答



回答问题时需要注意什么?

我们谢绝在回答前讲“生动”的故事。

我们谢绝“这么简单,你自己想”、“书上有的,你认真看”这类的回答;如果你认为对方的提问方式或者内容不妥,你可以直接忽略该问题,不用进行任何作答,甚至可以对该问题投反对票。

我们谢绝答非所问。

我们谢绝自己不会、硬要回答。

我们感激每一个用户在编写答案时的努力与付出!