Pytania otagowane jako svd

Rozkład wartości pojedynczej (SVD) macierzy jest podany przez gdzie i są macierzami ortogonalnymi, a jest macierzą diagonalną. AA=USVUVS

3
Kompozycja Cholesky'ego i eigend do rysowania próbek z wielowymiarowego rozkładu normalnego
Chciałbym narysować próbkę . Wikipedia sugeruje albo stosując Cholesky'iego lub Eigendecomposition , tj i x ∼N( 0 , Σ )x∼N.(0,Σ)\mathbf{x} \sim N\left(\mathbf{0}, \mathbf{\Sigma} \right)Σ =D1DT1Σ=D1re1T. \mathbf{\Sigma} = \mathbf{D}_1\mathbf{D}_1^T Σ = Q Λ QT.Σ=QΛQT. \mathbf{\Sigma} = \mathbf{Q}\mathbf{\Lambda}\mathbf{Q}^T Stąd przykład można pobrać za pomocą: lub gdzie \ mathbf {v} \ sim N …

2
Kiedy łączymy redukcję wymiarowości z klastrowaniem?
Próbuję przeprowadzić klastrowanie na poziomie dokumentu. Skonstruowałem macierz częstotliwości termin-dokument i próbuję zgrupować te wektory o dużych wymiarach za pomocą k-średnich. Zamiast bezpośredniego grupowania, najpierw zastosowałem dekompozycję wektora osobliwego LSA (Latent Semantic Analysis) w celu uzyskania macierzy U, S, Vt, wybrałem odpowiedni próg za pomocą wykresu piargowego i zastosowałem grupowanie …


1
Czy GSVD implementuje wszystkie liniowe techniki wielowymiarowe?
Natknąłem się na artykuł Hervé Abdiego na temat uogólnionego SVD. Autor wspomniał: Uogólniony SVD (GSVD) rozkłada macierz prostokątną i bierze pod uwagę ograniczenia nałożone na wiersze i kolumny macierzy. GSVD daje ważoną uogólnioną estymatę najmniejszej kwadratowej danej macierzy przez macierz niższego rzędu, a zatem, przy odpowiednim wyborze ograniczeń, GSVD wdraża …


3
Jakie są szybkie algorytmy obliczania skróconego SVD?
Ewentualnie od tematu tutaj, ale istnieje kilka ( jeden , dwa ) pytania związane już. Grzebanie w literaturze (lub wyszukiwanie google za pomocą Skróconych algorytmów SVD) ujawnia wiele artykułów, które wykorzystują obcięte SVD na różne sposoby i twierdzą (frustrujące, często bez cytowania), że istnieją szybkie algorytmy do ich obliczania, ale …



3
SVD macierzy z brakującymi wartościami
Załóżmy, że mam macierz rekomendacji w stylu Netflix i chcę zbudować model, który przewiduje potencjalne przyszłe oceny filmów dla danego użytkownika. Stosując podejście Simona Funka, można by użyć stochastycznego spadku gradientu, aby zminimalizować normę Frobeniusa między pełną macierzą a macierzą element po elemencie * użytkownik-użytkownik w połączeniu z terminem regularyzacji …

1
Różnica między implementacjami PCA i TruncatedSVD w scikit-learn
Rozumiem związek między analizą głównych składników a rozkładem wartości osobliwych na poziomie algebraicznym / dokładnym. Moje pytanie dotyczy implementacji scikit-learn . Dokumentacja mówi: „ [TruncatedSVD] jest bardzo podobny do PCA, ale działa bezpośrednio na przykładowe wektory, zamiast na macierz kowariancji. ”, Co odzwierciedlałoby różnicę algebraiczną między obydwoma podejściami. Jednak później …
12 pca  scikit-learn  svd  scipy 

1
Jak narysować wykres piargowy w pythonie? [Zamknięte]
Zamknięte. To pytanie jest nie na temat . Obecnie nie przyjmuje odpowiedzi. Chcesz poprawić to pytanie? Zaktualizuj pytanie, aby było tematem dotyczącym weryfikacji krzyżowej. Zamknięte w zeszłym roku . Używam pojedynczego rozkładu wektora na macierzy i otrzymuję macierze U, S i Vt. W tym momencie próbuję wybrać próg liczby wymiarów …

1
Dlaczego brak negatywności jest ważny dla współpracujących systemów filtrujących / rekomendujących?
We wszystkich nowoczesnych systemach rekomendujących, które widziałem, które opierają się na faktoryzacji macierzy, nieujemna faktoryzacja macierzy jest wykonywana na matrycy filmu użytkownika. Rozumiem, dlaczego brak negatywności jest ważny dla interpretacji i / lub jeśli chcesz rzadkich czynników. Ale jeśli zależy ci tylko na wydajności przewidywania, jak na przykład w konkursie …

1
Jakie są zalety i wady stosowania punktowej wzajemnej informacji na macierzy współbieżności słów przed SVD?
Jednym ze sposobów generowania zanurzeń słowo jest następująco ( lustro ): Zdobądź ciała, np. „Lubię latać. Lubię NLP. Lubię głębokie uczenie się”. Zbuduj z niego macierz współbieżności słów: Wykonaj SVD na XXX i zachowaj pierwsze kkk kolumn U. U1:|V|,1:kU1:|V|,1:kU_{1:|V|,1:k} Pomiędzy krokami 2 i 3 czasami stosowane są punktowe wzajemne informacje …

3
Średnie K dla podobieństw cosinusa vs. odległość euklidesowa (LSA)
Używam ukrytej analizy semantycznej do reprezentowania zbioru dokumentów w przestrzeni o niższych wymiarach. Chcę zgrupować te dokumenty w dwie grupy za pomocą k-średnich. Kilka lat temu zrobiłem to, używając gensim Pythona i pisząc własny algorytm k-średnich. Określiłem centroidy gromadowe na podstawie odległości euklidesowej, ale następnie zgrupowałem każdy dokument na podstawie …

1
R regresja liniowa zmienna kategorialna „ukryta” wartość
To tylko przykład, na który natknąłem się kilka razy, więc nie mam żadnych przykładowych danych. Uruchamianie modelu regresji liniowej w R: a.lm = lm(Y ~ x1 + x2) x1jest zmienną ciągłą. x2jest kategoryczny i ma trzy wartości, np. „Niska”, „Średnia” i „Wysoka”. Jednak dane wyjściowe podane przez R byłyby mniej …
10 r  regression  categorical-data  regression-coefficients  categorical-encoding  machine-learning  random-forest  anova  spss  r  self-study  bootstrap  monte-carlo  r  multiple-regression  partitioning  neural-networks  normalization  machine-learning  svm  kernel-trick  self-study  survival  cox-model  repeated-measures  survey  likert  correlation  variance  sampling  meta-analysis  anova  independence  sample  assumptions  bayesian  covariance  r  regression  time-series  mathematical-statistics  graphical-model  machine-learning  linear-model  kernel-trick  linear-algebra  self-study  moments  function  correlation  spss  probability  confidence-interval  sampling  mean  population  r  generalized-linear-model  prediction  offset  data-visualization  clustering  sas  cart  binning  sas  logistic  causality  regression  self-study  standard-error  r  distributions  r  regression  time-series  multiple-regression  python  chi-squared  independence  sample  clustering  data-mining  rapidminer  probability  stochastic-processes  clustering  binary-data  dimensionality-reduction  svd  correspondence-analysis  data-visualization  excel  c#  hypothesis-testing  econometrics  survey  rating  composite  regression  least-squares  mcmc  markov-process  kullback-leibler  convergence  predictive-models  r  regression  anova  confidence-interval  survival  cox-model  hazard  normal-distribution  autoregressive  mixed-model  r  mixed-model  sas  hypothesis-testing  mediation  interaction 

Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.