最近再看周志华的《机器学习》,其中神经网络一章提到,原文我记不清了,大意是说:数学上已经证明:只要你深度足够深,参数挑的足够合适,一个神经网络是可以拟合出任意可能的判决形式的;
本人菜鸡,深度学习做得比较少,想问问深度学习大神们怎么看这句话。
1个回答
你说的应该是Universal approximation theorem的引申。
Universal approximation theorem是说对于一个前馈神经网络,哪怕只有一个隐藏层,它也能无限逼近任何有界连续函数。
SofaSofa数据科学社区DS面试题库 DS面经 相关主题
BatchNormalization这一层一般有哪些参数需要调?
1回答
反向传播和梯度算法概念???反向传播是指反向传播算法,还是反向传播算法中的一个过程?
0回答
为什么小数据不适合神经网络模型?
3回答
deep learning中的pooling是什么意思?
6回答
神经网络里为什么隐藏层越多越好?
2回答
我们谢绝在回答前讲“生动”的故事。
我们谢绝“这么简单,你自己想”、“书上有的,你认真看”这类的回答;如果你认为对方的提问方式或者内容不妥,你可以直接忽略该问题,不用进行任何作答,甚至可以对该问题投反对票。
我们谢绝答非所问。
我们谢绝自己不会、硬要回答。
我们感激每一个用户在编写答案时的努力与付出!