训练误差、测试误差、泛化误差的区别

  统计/机器学习 监督式学习 模型验证 开放问题
1

训练误差、测试误差、泛化误差这三者都是误差

我大概能明白训练误差是什么

那么测试误差、泛化误差又有什么区别

这三者又有什么联系呢


 

信春哥   2017-11-10 14:26



   2个回答 
4

训练误差是模型在训练集上的误差

测试误差是模型在测试集上的误差

泛化误差是用来衡量模型的泛化性  

MurrayLee   2017-11-12 15:42

3

我还想补充个验证误差

训练过程中的误差,就是训练误差

在验证集上进行交叉验证选择参数(调参),最终模型在验证集上的误差就是验证误差

训练完毕、调参完毕的模型,在新的测试集上的误差,就是测试误差

假如所有的数据来自一个整体,模型在这个整体上的误差,就是泛化误差。通常说来,测试误差的平均值或者说期望就是泛化误差。


综合来说,它们的大小关系为

训练误差 < 验证误差 < 测试误差 ~= 泛化误差



sasa   2017-12-07 12:53



相关问题

k近邻算法(k-NN)怎么选k   2回答

什么是混淆矩阵(confusion matrix)   1回答

多元分类的混淆矩阵   1回答

二元分类问题中经常提到的TP,TF,FN,FP都是什么意思?   3回答

bias-variance tradeoff是什么意思?   1回答

建立一个预测模型的流程是什么   1回答

如果我用交叉验证,还是否需要单独分出测试集?   1回答

机器学习算法的鲁棒性是什么意思?   1回答

Bagging是什么意思?   1回答

机器学习+计算机网络   2回答

k-fold cross validation的k怎么选   2回答

hyperparameter与parameter的区别?   3回答



回答问题时需要注意什么?

我们谢绝在回答前讲“生动”的故事。

我们谢绝“这么简单,你自己想”、“书上有的,你认真看”这类的回答;如果你认为对方的提问方式或者内容不妥,你可以直接忽略该问题,不用进行任何作答,甚至可以对该问题投反对票。

我们谢绝答非所问。

我们谢绝自己不会、硬要回答。

我们感激每一个用户在编写答案时的努力与付出!