epoch和batch之间有什么关系?

  统计/机器学习 深度学习 人工神经网络    浏览次数:2626        分享
0

训练神经网络的时候,epoch和batch之间有什么关系?

 

chaos0   2020-05-23 14:29



   3个回答 
3

Epoch是你对整个训练集训练的次数,

Batch在deep learning里面指的是mini-batch.

假设你有100个sample, mini-batch是10, 那就是每次送进去10个sample, 10次就可以跑完这个data set.

这是一个epoch. 你可以跑100个epoch, 相当于模型对每一个sample见到了100次。

SofaSofa数据科学社区DS面试题库 DS面经

anlijuncn   2020-06-05 16:01

1

epoch是你选择的训练迭代次数

batch是你每次训练的时候选择的样本数

SofaSofa数据科学社区DS面试题库 DS面经

jd910910   2020-05-25 10:57

-1

epoch × batch = 样本总数

SofaSofa数据科学社区DS面试题库 DS面经

icode   2021-02-19 14:56



  相关主题

吴恩达深度学习第一课第四周作业L层结果收敛在0.64的问题   2回答

dropout rate一般设置多大?   3回答

反向传播和梯度算法概念???反向传播是指反向传播算法,还是反向传播算法中的一个过程?   1回答

deep learning中的pooling是什么意思?   6回答

神经网络中的Dropout和Bagging   1回答

CNN和RNN分别是怎么共享权重的?   0回答

为什么RNN会有梯度消失的问题,LSTM是怎么解决梯度消失的?   1回答

训练神经网络中经常提到的epoch是什么意思   2回答

前馈神经网络如何选择隐藏层的数量   2回答

BatchNormalization这一层一般有哪些参数需要调?   1回答

为什么小数据不适合神经网络模型?   3回答

请问深度学习算法中的梯度消失的原理是什么?如何能通俗理解   1回答



回答问题时需要注意什么?

我们谢绝在回答前讲“生动”的故事。

我们谢绝“这么简单,你自己想”、“书上有的,你认真看”这类的回答;如果你认为对方的提问方式或者内容不妥,你可以直接忽略该问题,不用进行任何作答,甚至可以对该问题投反对票。

我们谢绝答非所问。

我们谢绝自己不会、硬要回答。

我们感激每一个用户在编写答案时的努力与付出!