惩罚系数不变,特征变大,是不是更容易被Lasso去除?

  统计/机器学习 回归分析 监督式学习 特征选择    浏览次数:3999        分享
1

在Lasso回归的环境下,如果我把某个特征$X_1$扩大,比如赋值$X_1=100X_1$,并且保持惩罚系数不变,那么$X_1$是不是更容易被Lasso去除(回归系数为0)?


我看到一个相似问题Lasso是对数值大的系数压缩大还是数值小的系数压缩大?但是好像和我问的不是完全一样,请求高人指点。

 

姜金杰   2018-10-29 12:53



   1个回答 
1

对,把某特征$X_1$扩大,并且惩罚系数$\lambda$不变,$X_1$的回归系数$w_1$更容易为0。

把一个特征扩大变相把回归系数缩小,$X_1'=100X_1$可得$w_1'=w_1/100$。而且正则项提供的让回归系数变为0的gradient是相等的,$\lambda sign(w_1)=\lambda sign(w_1')$。所以新回归系数$w_1'$更容易为0。

SofaSofa数据科学社区DS面试题库 DS面经

Zealing   2018-11-09 01:54



  相关讨论

Lasso是对数值大的系数压缩大还是数值小的系数压缩大?

请问 L1 到底为什么具有稀疏性

lasso path是什么意思?

为什么LASSO可以做特征选择,而Ridge却不行?

什么时候该用LASSO,什么时候该用Ridge?

post lasso是什么意思?

Lasso的自由度是多大?

反复多次Lasso进行特征选择?

LASSO是无偏的还是有偏的?

Ridge回归的解析解是什么?

  随便看看

Python计算两个数组的相关系数

主成分分析法(PCA)算是黑盒算法吗?

为什么神经网络模型不用交叉验证?

怎么把pandas dataframe中一列英文文本全部转成小写?

如何复制一个pandas DataFrame