训练误差、测试误差、泛化误差的区别

  统计/机器学习 监督式学习 模型验证 开放问题    浏览次数: 1101
1

训练误差、测试误差、泛化误差这三者都是误差

我大概能明白训练误差是什么

那么测试误差、泛化误差又有什么区别

这三者又有什么联系呢


 

信春哥   2017-11-10 14:26



   2个回答 
4

训练误差是模型在训练集上的误差

测试误差是模型在测试集上的误差

泛化误差是用来衡量模型的泛化性  

MurrayLee   2017-11-12 15:42

4

我还想补充个验证误差

训练过程中的误差,就是训练误差

在验证集上进行交叉验证选择参数(调参),最终模型在验证集上的误差就是验证误差

训练完毕、调参完毕的模型,在新的测试集上的误差,就是测试误差

假如所有的数据来自一个整体,模型在这个整体上的误差,就是泛化误差。通常说来,测试误差的平均值或者说期望就是泛化误差。


综合来说,它们的大小关系为

训练误差 < 验证误差 < 测试误差 ~= 泛化误差



sasa   2017-12-07 12:53



  相关主题

模型调参时常用到的Grid Search是什么意思?   3回答

利用交叉验证调参后还需要用完整的数据集重新训练吗?   2回答

k近邻算法(k-NN)怎么选k   2回答

二元分类问题中经常提到的TP,TN,FN,FP都是什么意思?   3回答

F1值会受到不平衡数据的影响吗?   1回答

多元分类的混淆矩阵   1回答

什么是混淆矩阵(confusion matrix)   2回答

用python求二元分类的混淆矩阵   2回答

为什么bias-variance一定会trade off?   2回答

kNN算法有哪些缺点?   6回答

k-fold cross validation的k怎么选   2回答

如果我用交叉验证,还是否需要单独分出测试集?   1回答



回答问题时需要注意什么?

我们谢绝在回答前讲“生动”的故事。

我们谢绝“这么简单,你自己想”、“书上有的,你认真看”这类的回答;如果你认为对方的提问方式或者内容不妥,你可以直接忽略该问题,不用进行任何作答,甚至可以对该问题投反对票。

我们谢绝答非所问。

我们谢绝自己不会、硬要回答。

我们感激每一个用户在编写答案时的努力与付出!