神经网络中的Dropout和Bagging的作用都是用来防止模型过拟合(over-fitting)的。
它们两者从出发点和效果上有什么不同?
1个回答
Bagging和Dropout的目的是一样的,都是为了防止模型过拟合。但是bagging是针对于data,dropout是针对于特征。
Bagging是每次训练的时候从原训练集中随机抽取样本,然后对该样本进行训练。多次反复后,对最后的结果取均值。
Dropout是在构建神经网络的时候,随机的丢掉一些节点和边,这就是相当于对特征进行了随机选择(类似于RandomForest随机选择特征)。
这两者并不分谁好谁差,而且通常为了防止模型过拟合,我们也会考虑同时使用这两者方法。
SofaSofa数据科学社区DS面试题库 DS面经 相关主题
deep learning中的pooling是什么意思?
6回答
为什么小数据不适合神经网络模型?
3回答
神经网络中的gradient check是什么意思?
3回答
关于神经网络的性能
1回答
前馈神经网络如何选择隐藏层的数量
2回答
反向传播和梯度算法概念???反向传播是指反向传播算法,还是反向传播算法中的一个过程?
0回答
神经网络里为什么隐藏层越多越好?
2回答
我们谢绝在回答前讲“生动”的故事。
我们谢绝“这么简单,你自己想”、“书上有的,你认真看”这类的回答;如果你认为对方的提问方式或者内容不妥,你可以直接忽略该问题,不用进行任何作答,甚至可以对该问题投反对票。
我们谢绝答非所问。
我们谢绝自己不会、硬要回答。
我们感激每一个用户在编写答案时的努力与付出!