相关主题
如果y的范围是-1到1之间,网络输出层的激活函数应该是tanh还是linear?
1回答
激活函数leakyRELU和pRELU的区别是什么?
2回答
环境激活报错求解
0回答
elu激活函数是什么?
1回答
swish激活函数的公式是什么?
2回答
怎么理解神经网络中的激活函数hard sigmoid?
1回答
softmin是什么激活函数?
3回答
我们谢绝在回答前讲“生动”的故事。
我们谢绝“这么简单,你自己想”、“书上有的,你认真看”这类的回答;如果你认为对方的提问方式或者内容不妥,你可以直接忽略该问题,不用进行任何作答,甚至可以对该问题投反对票。
我们谢绝答非所问。
我们谢绝自己不会、硬要回答。
我们感激每一个用户在编写答案时的努力与付出!