如果y的范围是-1到1之间,网络输出层的激活函数应该是tanh还是linear?

  统计/机器学习 监督式学习 深度学习 人工神经网络    浏览次数:860        分享
0

一般做回归的时候,最后一层(输出层)的激活函数都是linear,但是如果y的范围是-1到1之间的数值,那么输出层的激活函数是用tanh还是linear呢?

谢谢~

 

R琳   2019-10-15 22:05



   1个回答 
2

一般来说回归用linear。还要看你y的分布和y的取值范围。

1.如果y集中在-1和+1两个点,可以用tanh

2.如果y分布在-1和+1间,且可以超出范围,可以用linear。

3.如果y分布在-1和+1间,且不可以超出范围,可以试hard tanh。

SofaSofa数据科学社区DS面试题库 DS面经

Zealing   2019-10-16 04:05

明白了,谢谢~ - R琳   2019-10-16 09:59


  相关主题

人工神经网络有哪些常用的激活函数?   3回答

激活函数leakyRELU和pRELU的区别是什么?   2回答

如果特征都是非负的,那么用RELU作为激活函数还有意义吗?   2回答

多项式网络(polynomial networks)的结构和激活函数?   0回答

怎么理解所谓的dying relu?   1回答

环境激活报错求解   0回答

怎么理解神经网络中的激活函数hard sigmoid?   1回答

sigmoid, tanh, arctan这几个激活函数为什么长这么像?   1回答

激活函数RELU在0点的导数是多少?   3回答

有没有最新的Pycharm2019专业版激活码   0回答

swish激活函数的公式是什么?   2回答

神经网络里每层的激活函数必须是一样的吗?   1回答



回答问题时需要注意什么?

我们谢绝在回答前讲“生动”的故事。

我们谢绝“这么简单,你自己想”、“书上有的,你认真看”这类的回答;如果你认为对方的提问方式或者内容不妥,你可以直接忽略该问题,不用进行任何作答,甚至可以对该问题投反对票。

我们谢绝答非所问。

我们谢绝自己不会、硬要回答。

我们感激每一个用户在编写答案时的努力与付出!