Nie, tego nie da się obronić. Ogromną przeszkodą, którą mają pokonać procedury wyboru modelu, jest to, że liczebność prawdziwego wsparciajest nieznany. (Mamy tutaj, że to „prawdziwy” współczynnik.) Ponieważnie jest znana, to procedura wyboru modelu musi wyczerpująco przeszukiwać wszystkie możliwych modeli; jednak gdybyśmy wiedzieli, moglibyśmy po prostu sprawdzić modele , co jest znacznie mniejsze.|S∗|=∣∣{j:β∗j≠0}∣∣β∗|S∗|2p|S∗|(p|S∗|)
Teoria lasso polega na tym, że parametr regularyzacji jest wystarczająco duży, aby wybrany model był wystarczająco rzadki. Może być tak, że twoich 10 funkcji jest za dużo lub za mało, ponieważ nie jest trywialne przekształcenie dolnej granicy w górną granicę.λλ|S∗|
Niech będzie naszym szacunkiem opartym na danych dla , i . Być może więc starasz się upewnić, że , aby odzyskać przynajmniej odpowiednie funkcje? A może próbujesz ustalić, że , abyś wiedział, że wszystkie znalezione funkcje są warte zachodu? W takich przypadkach procedura byłaby bardziej uzasadniona, gdybyś miał wcześniejsze informacje o względnych rozmiarach .β^β∗S^={j:β^j≠0}S∗⊆S^S^⊆S∗S∗
Zauważ też, że możesz pozostawić niektóre współczynniki niepenalizowane, na przykład wykonując lasso w glmnet
.