Są to trzy różne metody i żadnej z nich nie można uznać za szczególny przypadek innej.
Formalnie, jeśli i Y są wyśrodkowanymi zestawami danych predyktora ( n × p ) i odpowiedzi ( n × q ) i jeśli szukamy pierwszej pary osi, w ∈ R p dla X i v ∈ R q dla Y , wówczas te metody zmaksymalizuj następujące ilości:XYn×pn×qw∈RpXv∈RqY
P C A :R R R :P L S :C C A :Var( X w )Var( X w ) ⋅Corr2)( X w , Y v ) ⋅ Var(Yv)Var(Xw)⋅Corr2(Xw,Yv)⋅Var(Yv)=Cov2(Xw,Yv)Var(Xw)⋅Corr2(Xw,Yv)
(Dodałem kanoniczną analizę korelacji (CCA) do tej listy).
Podejrzewam, że zamieszanie może wynikać z tego, że w SAS wszystkie trzy metody wydają się być realizowane za pomocą tej samej funkcji PROC PLS
z różnymi parametrami. Może się więc wydawać, że wszystkie trzy metody są szczególnymi przypadkami PLS, ponieważ tak nazywa się funkcja SAS. Jest to jednak po prostu niefortunne nazywanie. W rzeczywistości PLS, RRR i PCR to trzy różne metody, które akurat zostały zaimplementowane w SAS w jednej funkcji, która z jakiegoś powodu jest wywoływana PLS
.
Oba samouczki, z którymi się łączysz, są bardzo jasne. Strona 6 samouczka prezentacji określa cele wszystkich trzech metod i tak jest nie mówi, że PLS „staje się” RRR lub PCR, w przeciwieństwie do tego, co twierdziłeś w swoim pytaniu. Podobnie dokumentacja SAS wyjaśnia, że trzy metody są różne, dając formuły i intuicję:
Regresja składników podstawowych [P] wybiera czynniki, które wyjaśniają jak najwięcej zmian predyktorów, redukcja regresji rang wybiera czynniki, które wyjaśniają jak najwięcej wariantów odpowiedzi, a częściowa metoda najmniejszych kwadratów równoważy oba cele, szukając czynników, które wyjaśniają zarówno odpowiedź, jak i zmienność predyktora .
W dokumentacji SAS jest nawet rysunek przedstawiający ładny przykład zabawki, w którym trzy metody dają różne rozwiązania. W tym przykładzie zabawki są dwa predyktory i x 2 oraz jedna zmienna odpowiedzi y . Kierunek, w X , który jest najbardziej skorelowana z y stanie się prostopadła do kierunku maksymalnej wariancji X . Dlatego PC1 jest prostopadły do pierwszej osi RRR, a oś PLS jest gdzieś pośrodku.x1x2yXyX
Można dodać karę grzbietową do utraconej funkcji RRR, uzyskując regresję obniżonej rangi lub RRRR. Spowoduje to pociągnięcie osi regresji w kierunku PC1, nieco podobnie do tego, co robi PLS. Jednak funkcja kosztu dla RRRR nie może być zapisana w postaci PLS, więc pozostają różne.
y