Jest to oczywiste po sprawdzeniu ilości, którą LASSO optymalizuje.
Przyjmijmy, że jest niezależnym Laplace'em ze średnią zero i pewną skalą τ .βiτ
Więc .p(β|τ)∝e−12τ∑i|βi|
Model danych to typowe założenie regresji .y∼iidN(Xβ,σ2)
f(y|X,β,σ2)∝(σ2)−n/2exp(−12σ2(y−Xβ)T(y−Xβ))
Teraz minus dwukrotność kłody tylnej jest w formie
1k(σ2,τ,n,p)+ 1σ2(y−Xβ)T(y−Xβ)+1τ∑i|βi|
Niech i otrzymamy - 2 log -posterior zλ=σ2/τ−2log
1k(σ2,λ,n,p)+ 1σ2[(y−Xβ)T(y−Xβ)+λ∑i|βi|]
Estymator MAP dla minimalizuje powyższe, co minimalizujeβ
S=(y−Xβ)T(y−Xβ)+λ∑i|βi|
Tak więc estymatorem MAP dla jest LASSO.β
(Tutaj potraktowałem jako skutecznie naprawiony, ale możesz robić z nim inne rzeczy i nadal otrzymywać LASSO.)σ2
Edycja: To właśnie otrzymuję za skomponowanie odpowiedzi off-line; Nie widziałem dobrej odpowiedzi, która została już opublikowana przez Andrew. Mój naprawdę nic nie robi, czego on już nie robi. Na razie zostawiam mój, ponieważ daje on kilka dodatkowych szczegółów rozwoju pod względem .β