神经网络里的batch size和sgd里的batch size是一回事嘛?

  统计/机器学习 最优化 人工神经网络
0

神经网络训练中的batch size是什么意思?

和sgd里的batch size是一回事嘛?


 

有故事的董同学   2017-12-02 15:15



    还没有回答。我来答!  


相关问题

随机梯度下降(sgd)的收敛问题   2回答

Adam优化算法   0回答

对于小批量随机剃度下降法(mini-batch SGD),如何选择每批样本的数量?   1回答

随机平均梯度法(Stochasitc Average Gradient)和随机梯度下降(SGD)有什么区别   2回答

牛顿法到底是一阶优化算法还是二阶优化算法?   2回答

最速下降法与梯度下降法   1回答

LeakyReLu是什么意思?   1回答

反向传播(BP)神经网络和前馈神经网络是一回事吗   1回答

keras中怎么增加Leaky relu的激活层   0回答

什么是Hessian矩阵和Jacobian矩阵   1回答

sklearn模块有神经网络的类可以调用吗?   1回答

PCA和SVD是一回事吗?   1回答



回答问题时需要注意什么?

我们谢绝在回答前讲“生动”的故事。

我们谢绝“这么简单,你自己想”、“书上有的,你认真看”这类的回答;如果你认为对方的提问方式或者内容不妥,你可以直接忽略该问题,不用进行任何作答,甚至可以对该问题投反对票。

我们谢绝答非所问。

我们谢绝自己不会、硬要回答。

我们感激每一个用户在编写答案时的努力与付出!