如果y的范围是-1到1之间,网络输出层的激活函数应该是tanh还是linear?

  统计/机器学习 监督式学习 深度学习 人工神经网络    浏览次数:4163        分享
1

一般做回归的时候,最后一层(输出层)的激活函数都是linear,但是如果y的范围是-1到1之间的数值,那么输出层的激活函数是用tanh还是linear呢?

谢谢~

 

R琳   2019-10-15 22:05



   1个回答 
3

一般来说回归用linear。还要看你y的分布和y的取值范围。

1.如果y集中在-1和+1两个点,可以用tanh

2.如果y分布在-1和+1间,且可以超出范围,可以用linear。

3.如果y分布在-1和+1间,且不可以超出范围,可以试hard tanh。

SofaSofa数据科学社区DS面试题库 DS面经

Zealing   2019-10-16 04:05

明白了,谢谢~ - R琳   2019-10-16 09:59


  相关讨论

swish激活函数的公式是什么?

人工神经网络有哪些常用的激活函数?

多项式网络(polynomial networks)的结构和激活函数?

神经网络里每层的激活函数必须是一样的吗?

怎么理解神经网络中的激活函数hard sigmoid?

elu激活函数是什么?

怎么理解所谓的dying relu?

softmin是什么激活函数?

激活函数leakyRELU和pRELU的区别是什么?

激活函数multi-sigmoid和softmax有什么区别?

  随便看看

pip install opencv-python失败,难道非要编译安装?

python里怎么表示科学计数法?

怎么添加pandas的dataframe到已有的csv文件,并且不覆盖原内容

随机森林会发生过拟合(overfitting)吗?

sklearn中的predict_proba方法的返回值的意义