神经网络里每层的激活函数必须是一样的吗?

  统计/机器学习 深度学习 人工神经网络    浏览次数:5747        分享
0

深度学习萌新,请教大家

如果神经网络里有很多层,每层的激活函数必须是一样的吗?


 

danny_q   2018-03-25 23:10



   2个回答 
1

肯定可以不一样。但是现实中除非知道要模拟的函数是什么,否则不知道该用怎样的激活函数组合。既然不知道答案,还不如用一个简单的方法,用同样的激活函数。

SofaSofa数据科学社区DS面试题库 DS面经

Zealing   2018-03-25 23:59

谢谢您的回答! - danny_q   2018-03-26 00:02
1

当然可以不一样,根据自己的要求,可以每层设置不一样的激活函数


SofaSofa数据科学社区DS面试题库 DS面经

kidd23   2018-03-26 01:17



  相关讨论

swish激活函数的公式是什么?

多项式网络(polynomial networks)的结构和激活函数?

人工神经网络有哪些常用的激活函数?

如果y的范围是-1到1之间,网络输出层的激活函数应该是tanh还是linear?

LeakyReLu是什么意思?

激活函数leakyRELU和pRELU的区别是什么?

softmin是什么激活函数?

激活函数RELU在0点的导数是多少?

purelin激活函数是什么?

怎么理解神经网络中的激活函数hard sigmoid?

  随便看看

用户人群分层分析的RFM模型是什么?

不用洛必达法则证明sin x比上x的极限是1

分类特征的目标编码是什么意思?

牛顿法到底是一阶优化算法还是二阶优化算法?

KNN中K值的选择