Korzystam z pakietu „lars” w języku R z następującym kodem:
> library(lars)
> set.seed(3)
> n <- 1000
> x1 <- rnorm(n)
> x2 <- x1+rnorm(n)*0.5
> x3 <- rnorm(n)
> x4 <- rnorm(n)
> x5 <- rexp(n)
> y <- 5*x1 + 4*x2 + 2*x3 + 7*x4 + rnorm(n)
> x <- cbind(x1,x2,x3,x4,x5)
> cor(cbind(y,x))
y x1 x2 x3 x4 x5
y 1.00000000 0.74678534 0.743536093 0.210757777 0.59218321 0.03943133
x1 0.74678534 1.00000000 0.892113559 0.015302566 -0.03040464 0.04952222
x2 0.74353609 0.89211356 1.000000000 -0.003146131 -0.02172854 0.05703270
x3 0.21075778 0.01530257 -0.003146131 1.000000000 0.05437726 0.01449142
x4 0.59218321 -0.03040464 -0.021728535 0.054377256 1.00000000 -0.02166716
x5 0.03943133 0.04952222 0.057032700 0.014491422 -0.02166716 1.00000000
> m <- lars(x,y,"step",trace=T)
Forward Stepwise sequence
Computing X'X .....
LARS Step 1 : Variable 1 added
LARS Step 2 : Variable 4 added
LARS Step 3 : Variable 3 added
LARS Step 4 : Variable 2 added
LARS Step 5 : Variable 5 added
Computing residuals, RSS etc .....
Mam zestaw danych z 5 zmiennymi ciągłymi i próbuję dopasować model do jednej (zależnej) zmiennej y. Dwa z moich predyktorów są ze sobą wysoce skorelowane (x1, x2).
Jak widać w powyższym przykładzie, funkcja lars z opcją „krokową” najpierw wybiera zmienną najbardziej skorelowaną z y. Następną zmienną, która wchodzi do modelu, jest ta, która jest najbardziej skorelowana z resztami. Rzeczywiście, jest to x4:
> round((cor(cbind(resid(lm(y~x1)),x))[1,3:6]),4)
x2 x3 x4 x5
0.1163 0.2997 0.9246 0.0037
Teraz, jeśli zrobię opcję „lasso”:
> m <- lars(x,y,"lasso",trace=T)
LASSO sequence
Computing X'X ....
LARS Step 1 : Variable 1 added
LARS Step 2 : Variable 2 added
LARS Step 3 : Variable 4 added
LARS Step 4 : Variable 3 added
LARS Step 5 : Variable 5 added
Dodaje obie skorelowane zmienne do modelu w pierwszych dwóch krokach. Jest to przeciwieństwo tego, co przeczytałem w kilku artykułach. Większość z nich twierdzi, że jeśli istnieje grupa zmiennych, wśród których korelacje są bardzo wysokie, wówczas „lasso” ma tendencję do wybierania tylko jednej zmiennej z grupy losowo.
Czy ktoś może podać przykład takiego zachowania? Lub wyjaśnij, dlaczego moje zmienne x1, x2 są dodawane do modelu jedna po drugiej (razem)?
R
wywołanie OP i związane z nim dane wyjściowe, zobaczysz, że rzeczywiście używa lasso. Jak zapewne wiesz, niewielka modyfikacja algorytmu larsa daje ścieżkę regulacyjną lasso.