CNN中reLU层和max pooling层的前后顺序

  统计/机器学习 深度学习 计算机视觉 人工神经网络    浏览次数:8237        分享
4

在用CNN做图像的时候,都是在reLU层之后再做max pooling?这个顺序有什么讲究吗?我可以先max pooling再reLU吗?

谢谢!


 

信春哥   2017-10-21 23:33



   2个回答 
8

一般来说都是先非线性的激活函数,然后再加pooling层。

但是这里如果是reLU和max pooling的话,我觉得交换一下应该是没有问题的。

因为$reLU(x) = \max(x,0)$,max pooling也是求最大值,所以交换顺序并不影响结果

$$\max(reLU(x_1), reLU(x_2))=reLU(\max(x_1, x_2))$$


SofaSofa数据科学社区DS面试题库 DS面经

木子周   2017-10-22 07:19

3

对于ReLU和max pooling来说,顺序是可以交换的。

如果你把ReLU和max pooling当作算子来看的话,这两个算子是可交换的,所以这两层也就可以交换顺序的。


SofaSofa数据科学社区DS面试题库 DS面经

abuu   2017-10-22 10:53



  相关讨论

图像识别和深度学习中的“组合爆炸”是什么意思?

VGG16和VGG19的区别?

cnn没有pooling会怎么样?

Resnet-18, Resnet-50, Resnet-101这些模型里的数字是什么意思?

如何安装pytorch

Pytorch卷积预测,小样本预测误差小,换一个大样本误差就下降不下去了。

深入了解神经网络

卷积层、池化层和droput层的前后顺序是什么?

pip install opencv报错

卷积层的padding一般都是零吗?

  随便看看

lightgbm.LGBMModel和lightgbm.LGBMClassifier该用哪个?

Random Forest可以用来做聚类?

推荐开放数据库

怎么理解tweedie分布?

线性回归或者逻辑回归中常提到的AIC和BIC是什么意思?