神经网络里为什么隐藏层越多越好?

  统计/机器学习 深度学习 人工神经网络    浏览次数:418        分享
0

神经网络里为什么隐藏层越多越好?

 

wxjjnss   2020-06-29 00:50



   2个回答 
3

神经网络是非线性函数聚类+线性拟合。非线性函数作用是把每层输入特征空间分割成很多小的子空间,每个子空间是一个簇;然后每个神经元在一个子空间做线性回归。类似于用很短的线段去描任意曲线。

隐藏层越多,特征空间的抽象程度越高,分割的子空间也会更小,在子空间内的数据点可能会更线性相关。打个比方,以体重划分动物,找不出人类;如果以是否用手制造工具并有复杂语言为特征,更容易把人类找出来。

隐藏层越多,训练越困难,梯度消失会更严重。还有个问题是隐藏层越多,特征抽象程度会越高,更容易过拟合。需要更大训练数据解决过拟合。

SofaSofa数据科学社区DS面试题库 DS面经

Zealing   2020-06-30 20:01

2

隐层越多,体现模型的 学习能力更强,能学到更多东西。但是我一般是根据实际数据训练的反馈情况来做调整的,不一定越多越好。我目前是这样理解的。

SofaSofa数据科学社区DS面试题库 DS面经

seven   2020-06-30 18:24



  相关主题

epoch和batch之间有什么关系?   2回答

前馈神经网络如何选择隐藏层的数量   2回答

吴恩达深度学习第一课第四周作业L层结果收敛在0.64的问题   1回答

deep learning中的pooling是什么意思?   6回答

神经网络中的gradient check是什么意思?   3回答

深度学习和人工神经网络是一回事吗?   1回答

为什么小数据不适合神经网络模型?   3回答

神经网络中的dense和sparse是什么意思?   2回答

训练神经网络中经常提到的epoch是什么意思   2回答

dropout rate一般设置多大?   3回答

神经网络中的Dropout和Bagging   1回答

关于神经网络的性能   1回答



回答问题时需要注意什么?

我们谢绝在回答前讲“生动”的故事。

我们谢绝“这么简单,你自己想”、“书上有的,你认真看”这类的回答;如果你认为对方的提问方式或者内容不妥,你可以直接忽略该问题,不用进行任何作答,甚至可以对该问题投反对票。

我们谢绝答非所问。

我们谢绝自己不会、硬要回答。

我们感激每一个用户在编写答案时的努力与付出!