Pytania otagowane jako eigenvalues

W przypadku pytań dotyczących obliczania lub interpretacji wartości własnych lub wektorów własnych.

28
Zrozumienie analizy głównych składników, wektorów własnych i wartości własnych
W dzisiejszej klasie rozpoznawania wzorców mój profesor mówił o PCA, wektorach własnych i wartościach własnych. Zrozumiałem matematykę. Jeśli poproszę o znalezienie wartości własnych itp. Zrobię to poprawnie jak maszyna. Ale nie zrozumiałem tego. Nie zrozumiałem tego. Nie czułem tego. Mocno wierzę w następujący cytat: Tak naprawdę czegoś nie rozumiesz, chyba …

3
Dlaczego macierz korelacji musi być dodatnia półokreślona i co to znaczy być dodatnim półokreślonym?
Badałem znaczenie dodatnich półokreślonych właściwości macierzy korelacji lub kowariancji. Szukam jakichkolwiek informacji na temat Definicja dodatniej półokreśloności; Jego ważne właściwości, praktyczne implikacje; Konsekwencja negatywnego wyznacznika, wpływ na analizę wielowymiarową lub wyniki symulacji itp.

1
Jeśli wygeneruję losową macierz symetryczną, jaka jest szansa, że ​​jest ona dodatnia?
Mam dziwne pytanie, kiedy eksperymentowałem z wypukłymi optymalizacjami. Pytanie brzmi: Załóżmy, że losowo (powiedzmy standardowy rozkład normalny) generuję macierz symetryczną (na przykład generuję górną macierz trójkątną i wypełniam dolną połowę, aby upewnić się, że jest symetryczna), jaka jest szansa, że ​​jest to wartość dodatnia określona matryca? Czy w ogóle można …

1
W jaki sposób centrowanie wpływa na PCA (w przypadku SVD i rozkładu własnego)?
Jaką różnicę ma centrowanie (lub odznaczanie) danych w przypadku PCA? Słyszałem, że ułatwia to matematykę lub zapobiega zdominowaniu pierwszego komputera przez zmienne, ale wydaje mi się, że nie byłem jeszcze w stanie zrozumieć tej koncepcji. Na przykład najlepsza odpowiedź tutaj W jaki sposób centrowanie danych pozbywa się przechwytywania w regresji …
30 r  pca  svd  eigenvalues  centering 


1
Dlaczego dla
W PCA, gdy liczba wymiarów jest większa (lub nawet równa) liczbie próbek N , dlaczego jest tak, że będziesz mieć co najwyżej N - 1 niezerowe wektory własne? Innymi słowy, pozycja macierzy kowariancji wśród wymiarów d ≥ N wynosi N - 1 .dddNNNN−1N−1N-1d≥Nd≥Nd\ge NN−1N−1N-1 Przykład: Twoje próbki to wektoryzowane obrazy …

1
Jakie jest znaczenie wektorów własnych wzajemnej matrycy informacji?
Patrząc na wektory własne macierzy kowariancji, otrzymujemy kierunki maksymalnej wariancji (pierwszy wektor własny to kierunek, w którym dane najbardziej się różnią itp.); nazywa się to analizą głównych składników (PCA). Zastanawiałem się, co to znaczy spojrzeć na wektory własne / wartości matrycy wzajemnej informacji, czy wskazywałyby one w kierunku maksymalnej entropii?

1
Wyjaśnij, w jaki sposób „własny” pomaga odwrócić macierz
Moje pytanie dotyczy techniki obliczeniowej wykorzystywanej w geoR:::.negloglik.GRFlub geoR:::solve.geoR. W liniowym modelu mieszanym: gdzie i to odpowiednio efekty stałe i losowe. Ponadtoβ b Σ = cov ( Y )Y=Xβ+Zb+eY=Xβ+Zb+e Y=X\beta+Zb+e ββ\betabbbΣ=cov(Y)Σ=cov(Y)\Sigma=\text{cov}(Y) Podczas szacowania efektów konieczne jest obliczenie które normalnie można wykonać za pomocą czegoś podobnego , ale czasami jest prawie …


3
Czy każda macierz korelacji jest dodatnia?
Mówię tu o macierzach korelacji Pearsona. Często słyszałem, że mówiono, że wszystkie macierze korelacji muszą być dodatnie półfinałowe. Rozumiem, że dodatnie określone macierze muszą mieć wartości własne , podczas gdy dodatnie semidkończone macierze muszą mieć wartości własne ≥ 0 . To sprawia, że ​​myślę, że moje pytanie można przeformułować w …

2
Dlaczego PCA maksymalizuje całkowitą wariancję projekcji?
Christopher Bishop pisze w swojej książce Pattern Recognition and Machine Learning dowód, że każdy kolejny główny składnik maksymalizuje wariancję projekcji do jednego wymiaru, po tym jak dane zostaną rzutowane do przestrzeni ortogonalnej na wcześniej wybrane komponenty. Inne pokazują podobne dowody. Dowodzi to jednak tylko, że każdy kolejny element jest najlepszym …

1
Mylić z wizualnym wyjaśnieniem wektorów własnych: w jaki sposób wizualnie różne zestawy danych mogą mieć te same wektory własne?
Wiele podręczników statystycznych zapewnia intuicyjną ilustrację tego, czym są wektory własne macierzy kowariancji: Wektory u i z tworzą wektory własne (cóż, osie własne). To ma sens. Ale jedną rzeczą, która mnie myli, jest to, że wydobywamy wektory własne z macierzy korelacji , a nie z surowych danych. Ponadto surowe zestawy …


2
Dlaczego nie mogę uzyskać prawidłowego SVD X za pomocą rozkładu wartości własnych XX 'i X'X?
Próbuję wykonać SVD ręcznie: m<-matrix(c(1,0,1,2,1,1,1,0,0),byrow=TRUE,nrow=3) U=eigen(m%*%t(m))$vector V=eigen(t(m)%*%m)$vector D=sqrt(diag(eigen(m%*%t(m))$values)) U1=svd(m)$u V1=svd(m)$v D1=diag(svd(m)$d) U1%*%D1%*%t(V1) U%*%D%*%t(V) Ale ostatnia linia nie mwraca. Dlaczego? Wydaje się, że ma to coś wspólnego z oznakami tych wektorów własnych ... Czy też źle zrozumiałem procedurę?
9 r  svd  eigenvalues 

2
Dlaczego ilość wariancji wyjaśniona przez mój pierwszy komputer jest tak bliska średniej korelacji par?
Jaki jest związek między pierwszymi głównymi komponentami i średnią korelacją w macierzy korelacji? Na przykład w aplikacji empirycznej obserwuję, że średnia korelacja jest prawie taka sama jak stosunek wariancji pierwszego głównego składnika (pierwszej wartości własnej) do całkowitej wariancji (suma wszystkich wartości własnych). Czy istnieje związek matematyczny? Poniżej znajduje się wykres …

Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.