为什么bias-variance一定会trade off?

  统计/机器学习 监督式学习 开放问题    浏览次数:6287        分享
1

bias-variance trade off就是说偏差小的时候,方差大;偏差大的时候,方差小。

总之就是一个方面好了,另外一个方面就会差了。那么为什么会这样呢?

为什么总是两者中牺牲一个呢?

 

huanx8t   2018-05-31 05:55



   2个回答 
7

bias大是指预测值与真实值之间的误差很大,通常是因为模型欠拟合

variance大是指当数据有小的扰动时,预测结果相差却不小,通常是因为模型过拟合

模型要不是欠拟合,要么过拟合,要么两者之间,所以bias和variance就会有trade off,因为不可能同时发生欠拟合和过拟合。当模型不过拟合也不欠拟合的时候,bias适中,variance也适中。

SofaSofa数据科学社区DS面试题库 DS面经

木子周   2018-06-12 14:09

6

我是这么认为的:

bias 是指模型拟合训练数据的偏差。bias越小,模型拟合的程度就越好

variance 是模型在不同训练集的预测结果的方差。

随着模型复杂性的增加,bias就会越小,而variance就会越大。因为模型越复杂,模型对于训练数据集的学习就会越细致,模型拟合程度就会越好。但是对于不同数据集之间的共性的学习就会不太好,会导致不同数据集之间的预测的差异性很大。

SofaSofa数据科学社区DS面试题库 DS面经

ie_noob   2018-06-12 15:35



  相关讨论

有没有可以自动请求特征取值的模型,最终实现分类?

样本权重大小不同时,用什么分类算法比较合适?

哪些机器学习分类模型适用于小数据?

Probit model和Logit model的区别是什么?

机器学习中的投票算法是指什么?

sota model是什么意思?

baseline模型和benchmark模型的差别?

人类的第一个机器学习算法是什么?

Generic/Heuristic Algorithm是什么意思?有什么区别?

ensemble模型时,bagging和stacking有什么区别?

  随便看看

为什么样本方差是除以n-1

sklearn分类模型中预测结果怎么调整概率的阈值

为什么过拟合不好?

python或者numpy求数值的中位数、四分位数

自助法(bootstrap)的0.632是怎么来的?