激活函数leakyRELU和pRELU的区别是什么?

  统计/机器学习 人工神经网络    浏览次数:7746        分享
1

leakyRELU和pRELU的公式都是

如果 x <   0:f(x) = ax

如果 x >= 0:f(x) = x

感觉它们两个完全等价吧,那为什么又会有两个不同的名字呢

 

cv菜鸟   2019-06-21 23:11



   2个回答 
8

并不完全等价,leakyrelu的a是固定的, prelu可以看作是leakyrelu的一个变体,a是根据网络训练得到的,而非预先定义的。

SofaSofa数据科学社区DS面试题库 DS面经

zlsama   2019-06-23 19:54

6

两个激活函数都是对RELU的进一步推广。

对于LeakyRELU,$f(x)=\alpha x$中的是固定的,是模型训练前提前设定的。

对于pRELU,$f(x)=\alpha x$中的是未知的,是模型训练中得到的。

更简洁一点说,LeakyRELU中$\alpha$是超参,pRELU中$\alpha$是参数。(两者的区别看这里hyperparameter与parameter

SofaSofa数据科学社区DS面试题库 DS面经

LiShanfei   2019-06-27 07:20



  相关讨论

如果特征都是非负的,那么用RELU作为激活函数还有意义吗?

怎么理解所谓的dying relu?

怎么理解神经网络中的激活函数hard sigmoid?

激活函数RELU在0点的导数是多少?

elu激活函数是什么?

purelin激活函数是什么?

激活函数multi-sigmoid和softmax有什么区别?

softmin是什么激活函数?

sigmoid, tanh, arctan这几个激活函数为什么长这么像?

LeakyReLu是什么意思?

  随便看看

pandas同时返回一个dataframe的前几行(head)和后几行(tail)

怎么理解tweedie分布?

为什么LR要用Sigmoid函数?

K-means怎么选K?

怎么让DataFrame按照某一列绝对值从小到按排列?