PCA to przede wszystkim technika redukcji danych, której celem jest uzyskanie rzutu danych na przestrzeń o niższych wymiarach. Dwa równoważne cele to iteracyjne maksymalizowanie wariancji lub minimalizacja błędu rekonstrukcji. W rzeczywistości zostało to szczegółowo wyjaśnione w odpowiedziach na poprzednie pytanie .
Natomiast analiza czynnikowa jest przede wszystkim modelem generatywnym -wymiarowego wektora danych X, mówiącego, że
X = A S + ϵ
gdzie S jest q wymiarowym wektorem czynników utajonych, A jest p × k z k < p, a ϵ jest a wektor nieskorelowanych błędów. Macierz jest macierzą obciążeniach czynnik . Daje to specjalną parametryzację macierzy kowariancji jako
Σ = A A T + DpX
X= A S.+ ϵ
S.qZAp × kk < pϵZAΣ = A AT.+ D
Problem z tym modelem polega na tym, że jest on sparametryzowany. Ten sam wzór uzyskuje się wówczas, otrzymuje
A B dla każdego
k x k macierzą ortogonalną,
R , co oznacza, że te same czynniki nie są unikatowe. Różne propozycje istnieją rozwiązania tego problemu, ale istnieje
nie jedno rozwiązanie, które daje czynniki z rodzaju interpretacji prosić. Popularnym wyborem jest rotacja
varimax . Jednak zastosowane kryterium określa tylko obrót. Przestrzeń kolumny rozciągnięta przez
A nie zmienia się, a ponieważ jest to część parametryzacji, określa się ją dowolną metodą zastosowaną do oszacowania
ΣZAA R.k × kRZAΣ - powiedzmy, według maksymalnego prawdopodobieństwa w modelu Gaussa.
Dlatego, aby odpowiedzieć na pytanie, wybrane czynniki nie są podawane automatycznie na podstawie modelu analizy czynnikowej, więc nie ma jednej interpretacji pierwszych czynników. Musisz określić metodę zastosowaną do oszacowania (przestrzeń kolumny) A i metodę zastosowaną do wyboru obrotu. Jeśli D = σ 2 I (wszystkie błędy mają tę samą wariancję), rozwiązaniem MLE dla przestrzeni kolumny A jest przestrzeń łączona przez wiodące q głównych wektorów składowych, które można znaleźć przez rozkład liczby pojedynczej. Można oczywiście nie obracać i zgłaszać te główne wektory składowe jako czynniki. kZAD = σ2)jaZAq
kkk