最小角回归是天然的LASSO化?正则化参数怎么体现?

  统计/机器学习 回归分析 监督式学习 开放问题    浏览次数:4964        分享
0

和“前向选择(Forward Selection)”和“前向梯度(Forward Stagewise)”算法类似,最小角回归直接面对的问题就是Y=X*w的问题,其中Y是m*1向量,X是m*n矩阵,w是n*1的待求系数向量,如此一来似乎问题和LASSO的损失函数没有关系了,那么说最小角回归求LASSO难道是因为最小角回归天然具备LASSO的特性,能够使得一些系数向量中的值为零?

那么承认了修正的LARS算法得到的解就是LASSO的解的基础上,LASSO回归中的正则化参数怎么在LARS中得到体现呢?修正的LARS算法只是说当系数转变符号时去掉相应的向量而已?

 

CE_PAUL   2019-02-15 23:57



   3个回答 
2

很有意思的问题:

1. 这类最小二乘回归问题$argmin_w(|y-w^Tx|^2)$,所求问题是把$var(y)$所代表的$y$能量如何分布到协方差矩阵$Cov(x)=x^Tx$上。$y^Ty=x^Tww^Tx$,其中 $w_i^2$代表$var(x_i)$单独分到能量的比例,$2w_iw_j$代表因为colinear问题$cov(x_i,x_j)$共享能量的比例。举个极端的例子,$y=w_1x_1+w_2x_2$,如果$x_1=x_2$,$corr(x_1,x_2)=1$。$y$的能量分给$x_1$或$x_2$ 都一样。 那么 $w_1+w_2=1$都是合理的解。只有加上 $|w|_1$正则项,才可以保证得到$w=[1,0]或[0,1]$这样稀疏的解。换句话说,求稀疏解等于能量集中把colinear引起的共享能量集中到一个变量$x_i$上,此时$|w_i|$增大,而$|w_j|$保持较小值。

2.原始的LARS得到稀疏解有三个原因:a)Forward,起始点是原点$w=[0,0,...]$,b)每次只求一个参数, c)boosting,每一步只分配残差的能量。如果$x_i$被选中,会尽量把能量分配给$x_i$,以后剩余在残差中的能量只有很少能分给$x_j$。因为$x_j$一直不能选中,$w_j=0$ ,从而得到稀疏解。

3.如果$w$起始点不是原点,就需要有机制让一部分$|w_j|$减小并停在0。所以Lasso_LARS改进,可以有任意的起始点。

原始LARS有点赢者通吃的想法。比如动物=[狼,猪,羊] , 食物=[肉,草]。如果先让狼去吃,第二个让猪吃草,羊就没有食物 ,此时得到解$[1,1,0]$。如果第二步让羊在猪之前去吃,猪就没食物,解为$[1,0,1]$。如果让猪在狼和羊前去吃,那么狼和羊都没有食物, 解为$[0,2,0]$。

SofaSofa数据科学社区DS面试题库 DS面经

Zealing   2019-02-17 06:25

0

查阅了一下,应当是使用修正后的LARS算法对LASSO问题进行求解,但是修正算法没怎么看懂,就是把LASSO问题的损失函数变化为一个类似于X*r=Y的形式的时候,Y其实是系数矩阵的1范数对系数矩阵中分量的求导,这个导数是不存在的,这里怎么进行处理呢?若是以次导数的思想来进行,那么每次推进的时候,Y是选-1,+1还是0呢

SofaSofa数据科学社区DS面试题库 DS面经

CE_PAUL   2019-02-16 01:43

0

又看了一下,修改后的LARS算法就是将变出现系数变号的向量从解集当中剔除,但是有个问题,损失函数里面的正则化系数怎么在LARS中体现呢?

SofaSofa数据科学社区DS面试题库 DS面经

CE_PAUL   2019-02-16 02:53



  相关讨论

为什么正则项通常都是用L1或者L2,而不是其他的?

如何理解“迭代步骤本身就是一个正则化的过程”

L1范数回归与TV正则化哪个的回归效果更好?

L0 norm 正则是什么意思?

正则项里的L1,L2是什么意思?

L1正则化和L2正则化的区别?L1为啥具有稀疏性?

Lasso和岭回归的正则项包含截距(常数项)吗?

为什么很少用L0范数惩罚正则项?

如何简单理解正则化

xgboost有正则项为什么还会过拟合呢?

  随便看看

Pandas怎样对dataframe中的一个时间列进行排序?

NLP里的OOV是什么意思?

K-means怎么选K?

非方阵的逆是什么

xgboost怎么调参?