请问深度学习算法中的梯度消失的原理是什么?如何能通俗理解

  统计/机器学习 深度学习 人工神经网络    浏览次数:853        分享
0

请问深度学习算法中的梯度消失的原理是什么?如何能通俗理解,我看到RNN和循环神经网络中总是涉及梯度消失

 

飞时过   2021-09-22 13:50



   1个回答 
0

梯度消失就是当x自某一点至无穷时,曲线平缓(导数几乎为0)

SofaSofa数据科学社区DS面试题库 DS面经

wh21118310   2021-10-06 16:30



  相关讨论

吴恩达深度学习第一课第四周作业L层结果收敛在0.64的问题

关于神经网络的性能

wide-deep模型里的wide和deep分别是指什么意思?

神经网络中的Dropout和Bagging

反向传播和梯度算法概念???反向传播是指反向传播算法,还是反向传播算法中的一个过程?

深度学习模型的“蒸馏”是什么意思?

训练神经网络中经常提到的epoch是什么意思

CNN和RNN分别是怎么共享权重的?

epoch和batch之间有什么关系?

为什么小数据不适合神经网络模型?

  随便看看

鞍点的数学定义是什么?

分类特征的目标编码是什么意思?

怎么理解图像识别里的dice系数?

为什么图的拉普拉斯矩阵的最小特征值一定是0?

如何度量一个分布长尾的程度?