如果迫使一个线性回归模型的截距为0,会有什么坏处吗?

  统计/机器学习 回归分析    浏览次数: 130
0

由于特定问题的限制,这个线性回归模型的截距(常数项)必须为0,那么这么做会造成什么问题吗?

这个情况下,这个估计是有偏的还是无偏的呢?此外,还有什么顾忌呢?

 

桐桐酱   2018-05-19 14:19



   1个回答 
0

我觉得你不应该人为的限制截距为0。

首先,如果常数项为0,那么它本质上已经不是一个正确的线性回归了。

其次,如果它本身的特征决定了常数项是0,应该不是由人为所决定,而是通过数据学习得到的。

abuu   2018-05-25 23:51



  相关主题

怎么处理真值大部分为0的回归问题   3回答

怎么理解分位数回归quantile regression的目标函数?   1回答

常用的回归模型中,哪些具有较好的鲁棒性(robustness)?   1回答

最小二乘线性回归的推导   1回答

与基于一般形式的支持向量回归相比,最小二乘支持向量回归更准确?   2回答

泊松回归的公式是什么?   1回答

逻辑回归模型中变量的系数怎么理解?   4回答

线性回归需要满足哪些基本前提假设   1回答

在线性回归模型中存在epoch的说法吗?   2回答

python里怎么做分位数回归(quantile regression)?   1回答

系数非负的线性回归的python实现   2回答

GBDT+LR的工作原理?   3回答



回答问题时需要注意什么?

我们谢绝在回答前讲“生动”的故事。

我们谢绝“这么简单,你自己想”、“书上有的,你认真看”这类的回答;如果你认为对方的提问方式或者内容不妥,你可以直接忽略该问题,不用进行任何作答,甚至可以对该问题投反对票。

我们谢绝答非所问。

我们谢绝自己不会、硬要回答。

我们感激每一个用户在编写答案时的努力与付出!