Dlaczego LASSO nie znajduje mojej idealnej pary predyktorów w wysokiej wymiarowości?


20

Przeprowadzam mały eksperyment z regresją LASSO w R, aby sprawdzić, czy jest w stanie znaleźć idealną parę predyktorów. Para jest zdefiniowana w następujący sposób: f1 + f2 = wynik

Rezultatem jest z góry ustalony wektor o nazwie „wiek”. F1 i f2 są tworzone przez pobranie połowy wektora wieku i ustawienie pozostałych wartości na 0, na przykład: wiek = [1,2,3,4,5,6], f1 = [1,2,3, 0,0,0] if2 = [0,0,0,4,5,6]. Łączę tę parę predyktorów ze wzrastającą liczbą losowo tworzonych zmiennych, próbkując z rozkładu normalnego N (1,1).

Widzę, że kiedy trafię 2 ^ 16 zmiennych, LASSO nie znajduje już mojej pary. Zobacz wyniki poniżej.

Liczba funkcji na krotnie na rozmiar danychWspółczynniki idealnej pary

Dlaczego to się dzieje? Możesz odtworzyć wyniki za pomocą skryptu poniżej. Zauważyłem, że kiedy wybieram inny wektor wiekowy, np .: [1: 193], wówczas LASSO znajduje parę w wysokiej wymiarowości (> 2 ^ 16).

Scenariusz:

## Setup ##
library(glmnet)
library(doParallel)
library(caret)

mae <- function(errors){MAE <- mean(abs(errors));return(MAE)}
seed = 1
n_start <- 2 #start at 2^n features
n_end <- 16 #finish with 2^n features
cl <- makeCluster(3)
registerDoParallel(cores=cl)

#storage of data
features <- list()
coefs <- list()
L <- list() 
P <- list() 
C <- list() 
RSS <- list() 

## MAIN ##
for (j in n_start:n_end){
  set.seed(seed)
  age <- c(55,31,49,47,68,69,53,42,58,67,60,58,32,52,63,31,51,53,37,48,31,58,36,42,61,49,51,45,61,57,52,60,62,41,28,45,39,47,70,33,37,38,32,24,66,54,59,63,53,42,25,56,70,67,44,33,50,55,60,50,29,51,49,69,70,36,53,56,32,43,39,43,20,62,46,65,62,65,43,40,64,61,54,68,55,37,59,54,54,26,68,51,45,34,52,57,51,66,22,64,47,45,31,47,38,31,37,58,66,66,54,56,27,40,59,63,64,27,57,32,63,32,67,38,45,53,38,50,46,59,29,41,33,40,33,69,42,55,36,44,33,61,43,46,67,47,69,65,56,34,68,20,64,41,20,65,52,60,39,50,67,49,65,52,56,48,57,38,48,48,62,48,70,55,66,58,42,62,60,69,37,50,44,61,28,64,36,68,57,59,63,46,36)
  beta2 <- as.data.frame(cbind(age,replicate(2^(j),rnorm(length(age),1,1))));colnames(beta2)[1] <-'age'

  f1 <- c(age[1:96],rep(0,97)) 
  f2 <- c(rep(0,96),age[97:193])
  beta2 <- as.data.frame(cbind(beta2,f1,f2))

  #storage variables
  L[[j]] <- vector()
  P[[j]] <- vector()
  C[[j]] <- list()
  RSS[[j]] <- vector()

  #### DCV LASSO ####
  set.seed(seed) #make folds same over 10 iterations
  for (i in 1:10){

    print(paste(j,i))
    index <- createFolds(age,k=10)
    t.train <- beta2[-index[[i]],];row.names(t.train) <- NULL
    t.test <- beta2[index[[i]],];row.names(t.test) <- NULL

    L[[j]][i] <- cv.glmnet(x=as.matrix(t.train[,-1]),y=as.matrix(t.train[,1]),parallel = T,alpha=1)$lambda.min #,lambda=seq(0,10,0.1)
    model <- glmnet(x=as.matrix(t.train[,-1]),y=as.matrix(t.train[,1]),lambda=L[[j]][i],alpha=1)
    C[[j]][[i]] <- coef(model)[,1][coef(model)[,1] != 0]
    pred <- predict(model,as.matrix(t.test[,-1]))
    RSS[[j]][i] <- sum((pred - t.test$age)^2)
    P[[j]][i] <- mae(t.test$age - pred)
    gc()
  }
}

##############
## PLOTTING ##
##############

#calculate plots features
beta_sum = unlist(lapply(unlist(C,recursive = F),function(x){sum(abs(x[-1]))}))
penalty = unlist(L) * beta_sum
RSS = unlist(RSS)
pair_coefs <- unlist(lapply(unlist(C,recursive = F),function(x){
  if('f1' %in% names(x)){f1 = x['f1']}else{f1=0;names(f1)='f1'}
  if('f2' %in% names(x)){f2 = x['f2']}else{f2=0;names(f2)='f2'}
  return(c(f1,f2))}));pair_coefs <- split(pair_coefs,c('f1','f2'))
inout <- lapply(unlist(C,recursive = F),function(x){c('f1','f2') %in% names(x)})
colors <- unlist(lapply(inout,function(x){if (x[1]*x[2]){'green'}else{'red'}}))
featlength <- unlist(lapply(unlist(C,recursive = F),function(x){length(x)-1}))

#diagnostics
plot(rep(n_start:n_end,each=10),pair_coefs$f1,col='red',xaxt = "n",xlab='n/o randomly generated features (log2)',main='Pair Coefficients',ylim=c(0,1),ylab='pair coefficients');axis(1, at=n_start:n_end);points(rep(n_start:n_end,each=10),pair_coefs$f2,col='blue');axis(1, at=n_start:n_end, labels=(n_start:n_end));legend('bottomleft',fill=c('red','blue'),legend = c('f1','f2'),inset=.02)
plot(rep(n_start:n_end,each=10),RSS+penalty,col=colors,xaxt = "n",xlab='n/o randomly generated features (log2)',main='RSS+penalty');axis(1, at=n_start:n_end, labels=(n_start:n_end));legend('topleft',fill=c('green','red'),legend = c('Pair Selected','Pair not Selected'),inset=.02)
plot(rep(n_start:n_end,each=10),penalty,col=colors,xaxt = "n",xlab='n/o randomly generated features (log2)',main='Penalty');axis(1, at=n_start:n_end, labels=(n_start:n_end));legend('topleft',fill=c('green','red'),legend = c('Pair Selected','Pair not Selected'),inset=.02)
plot(rep(n_start:n_end,each=10),RSS,col=colors,xaxt = "n",xlab='n/o randomly generated features (log2)',main='RSS');axis(1, at=n_start:n_end, labels=(n_start:n_end));legend('topleft',fill=c('green','red'),legend = c('Pair Selected','Pair not Selected'),inset=.02)
plot(rep(n_start:n_end,each=10),unlist(L),col=colors,xaxt = "n",xlab='n/o randomly generated features (log2)',main='Lambdas',ylab=expression(paste(lambda)));axis(1, at=n_start:n_end, labels=(n_start:n_end));legend('topleft',fill=c('green','red'),legend = c('Pair Selected','Pair not Selected'),inset=.02)
plot(rep(n_start:n_end,each=10),featlength,ylab='n/o features per fold',col=colors,xaxt = "n",xlab='n/o randomly generated features (log2)',main='Features per Fold');axis(1, at=n_start:n_end, labels=(n_start:n_end));legend('topleft',fill=c('green','red'),legend = c('Pair Selected','Pair not Selected'),inset=.02)
plot(penalty,RSS,col=colors,main='Penalty vs. RSS')

drobny komentarz: ze względu na użycie „createFolds”, musisz także załadować pakiet „caret”.
IWS,

2
Zobacz twierdzenie 2a „Wainwright: Ostre progi dla odzysku wielowymiarowego i głośnego sparityzacji”. W obecnym reżimie, w którym prawdziwe wsparcie ma ustaloną liczność 2, a p rośnie z ustaloną n, wydaje się prawdopodobne, że mogą istnieć bardzo wysokie korelacje, jeśli jest wystarczająca liczba funkcji, co prowadzi do niskiego prawdopodobieństwa pomyślnego odzyskania wsparcia które zauważasz. (Jednak ponieważ wektory, które nie są w prawdziwym wsparciu, są dość małe (średnia wariancja 0 1), wydaje się, że może to nie być przyczyną, ponieważ funkcja prawdziwego wieku ma bardzo duże wpisy.)
user795305

1
@Ben, myślę, że to prawidłowe wyjaśnienie, a biorąc pod uwagę popularność tego pytania, byłoby wspaniale, gdybyś mógł udzielić odpowiedzi wyjaśniającej, dlaczego tak jest.
NRH

1
@Maddenker ^zawsze zwraca podwójną liczbę całkowitą lub podwójne argumenty w R. R również przełącza się na podwójną, jeśli wystąpi przepełnienie liczby całkowitej.
Roland

1
FYI: Dodałem zaktualizowany skrypt na mojej stronie github. W tym skrypcie używam mniej próbek, co indukuje problem już przy 2 ^ 5 zmiennych. Pozwala to na szybkie uruchamianie i umożliwia eksperymentowanie z danymi: github.com/sjorsvanheuveln/LASSO_pair_problem
Ansjovis86

Odpowiedzi:


4

p>n

Lasso jest popularnym narzędziem do rzadkiej regresji liniowej, szczególnie w przypadku problemów, w których liczba zmiennych przekracza liczbę obserwacji. Ale gdy p> n, kryterium lasso nie jest ściśle wypukłe, a zatem może nie mieć unikalnego minimalizatora.

Jak wspomniano @ben, gdy masz zmienne towarzyszące 2e16, nie jest inaczej, że niektóre są całkiem podobne do prawdziwych zmiennych towarzyszących. Dlatego powyższy punkt jest istotny: LASSO jest obojętny na wybranie jednego z nich.

Być może bardziej aktualne i ostatnio (2013), jest kolejny artykuł Candesa na temat tego, w jaki sposób, nawet gdy warunki statystyczne są idealne (nieskorelowane predyktory, tylko kilka dużych efektów), LASSO nadal wytwarza fałszywie dodatnie, takie jak to, co widzisz w swoich danych:

W ustawieniach regresji, w których zmienne objaśniające mają bardzo niskie korelacje i jest stosunkowo niewiele efektów, każdy o dużej wielkości, oczekujemy, że Lasso znajdzie ważne zmienne z niewielkimi błędami, jeśli występują. Ten artykuł pokazuje, że w reżimie liniowej rzadkości --- co oznacza, że ​​część zmiennych o efekcie nie znikania ma tendencję do stałej, jakkolwiek niewielkiej --- nie może tak być w rzeczywistości, nawet jeśli zmienne projektowe są stochastycznie niezależne .


Nie wiedziałem tego Myślałem, że LASSO jest standardowym, niezawodnym narzędziem do identyfikacji rzadkiego modelu (a przynajmniej takie było moje wrażenie po przeczytaniu dwóch książek Hastie i Tibshirani oraz przy użyciu samej metody). Skoro mówisz, że problem jest dobrze znany, czy wiesz, czy istnieją również rozwiązania / i / lub alternatywne podejścia?
DeltaIV

Jeśli dobrze rozumiem, wyniki te wydają się dotyczyć jedynie liniowej rzadkości, podczas gdy omawiany problem dotyczy
subliniowej

@Ben, jasne, ale to nie znaczy, że papier jest nieistotny. Jest to jedna z najnowszych literatur, które znam na ten temat. Myślę, że można pokazać coś prostego: nawet przy idealnych warunkach statystycznych LASSO nie ma najlepszych właściwości.
Mustafa S Eisa

@DeltaIV, LASSO to heurystyka wypukła optymalizacyjna do celów selekcji zmiennych. W książce Tibshirani pokazują, że może podążać podobną ścieżką jak AIC lub metodami krokowymi, ale nie jest to gwarancją. Moim zdaniem większość jego problemów wynika z faktu, że jest to heurystyka, a nie rzeczywistość, ale rezygnujesz z niej, aby uzyskać wypukłość, która ma inne miłe właściwości.
Mustafa S Eisa
Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.