1. Co to jest regresja o zmniejszonej wartości (RRR)?
Rozważmy wielowymiarową wielokrotną regresję liniową, tj. Regresję z zmiennymi niezależnymi i q zmiennymi zależnymi. Niech X i Y będą zestawami danych predykcyjnych ( n × p ) i odpowiedzi ( n × q ). Następnie zwykłą zwykłą regresję metodą najmniejszych kwadratów (OLS) można sformułować jako minimalizującą następującą funkcję kosztów:pqXYn×pn×q
L=∥Y−XB∥2,
gdzie jest macierzą wag regresji p × q . Jego rozwiązanie jest przez B O L S = ( X ⊤ X ) - 1 X ⊤ Y , i jest on łatwo zauważyć, że jest to równoważne z q oddzielne OLS regresji, po jednym dla każdej zmiennej zależnej.Bp×q
B^OLS=(X⊤X)−1X⊤Y,
q
Zmniejszonej pozycja regresji wprowadza ograniczenie na stopień , a mianowicie L powinny być zminimalizowane rangi ( B ) ≤ R , gdzie R jest maksymalna dopuszczalna rangę B .BLrank(B)≤rrB
2. Jak uzyskać rozwiązanie RRR?
Okazuje się, że RRR może być obsadzony jako problem wektora własnego. Rzeczywiście, wykorzystując fakt, że OLS jest zasadniczo prostopadły występ na powierzchni kolumny , można przepisać L tak L = ‖ Y - X B O L S ‖ 2 + ‖ X B O L S - X B ‖ 2 . Pierwszy termin nie zależy od B , a drugi składnik może być minimalizowana przez SVD / PCA z dopasowanymi wartościami Y = X BXL
L=∥Y−XB^OLS∥2+∥XB^OLS−XB∥2.
B .
Y^=XB^OLS
W szczególności, jeżeli są przede r główne osie Y , a następnie B R R R = B O L S U r U ⊤ R .UrrY^
B^RRR=B^OLSUrU⊤r.
3. Do czego służy RRR?
Mogą istnieć dwa powody, aby używać RRR.
Br
Po drugie, można go użyć jako metody redukcji wymiarów / eksploracji danych. Jeśli mamy wiele zmiennych predykcyjnych i kilka zmiennych zależnych, wówczas RRR konstruuje „czynniki ukryte” w przestrzeni predyktorów, które najlepiej wykonują wyjaśnienie wariancji DV. Następnie można spróbować zinterpretować te ukryte czynniki, wykreślić je itp. O ile mi wiadomo, robi się to rutynowo w ekologii, gdzie RRR jest znane jako analiza redundancji i jest przykładem tego, co nazywają metodami święceń ( patrz odpowiedź @ GavinSimpson tutaj ).
4. Związek z innymi metodami redukcji wymiarów
RRR jest ściśle powiązany z innymi metodami redukcji wymiarów, takimi jak CCA i PLS. Omówiłem to trochę w mojej odpowiedzi na pytanie: Jaki jest związek między częściowymi najmniejszymi kwadratami, regresją o zmniejszonej rangi i regresją składowych głównych?
XYn×pn×qw∈RpXv∈RqY
PCA:RRR:PLS:CCA:Var(Xw)Var(Xw)⋅Corr2(Xw,Yv)⋅Var(Yv)Var(Xw)⋅Corr2(Xw,Yv)⋅Var(Yv)=Cov2(Xw,Yv)Var(Xw)⋅Corr2(Xw,Yv)
Zobacz tam więcej szczegółów.
Zobacz Torre, 2009, A Least-Squares Framework for Component Analysis, aby uzyskać szczegółowe informacje na temat tego, jak większość powszechnych liniowych metod wielowymiarowych (np. PCA, CCA, LDA, - ale nie PLS!) Można postrzegać jako RRR.
5. Dlaczego ta sekcja w Hastie i in. takie mylące?
L=∥Y−XB∥2,
L=∥(Y−XB)(Y⊤Y)−1/2∥2,
YYwybiela się, a różnica znika. Co więc Hastie i in. wezwanie RRR to tak naprawdę CCA w przebraniu (i rzeczywiście zobacz ich 3.69).
Nic z tego nie zostało właściwie wyjaśnione w tym rozdziale, stąd zamieszanie.
Zobacz moją odpowiedź na przyjazny samouczek lub wprowadzenie do regresji o zmniejszonej wartości do dalszego czytania.