Pytania otagowane jako dimensionality-reduction

Odnosi się do technik zmniejszania dużej liczby zmiennych lub wymiarów łączonych przez dane do mniejszej liczby wymiarów przy jednoczesnym zachowaniu jak największej ilości informacji o danych. Najważniejsze metody obejmują PCA, MDS, Isomap itp. Dwie główne podklasy technik: ekstrakcja i wybór cech.

3
PCA jest zbyt wolny, gdy oba n, p są duże: alternatywy?
Konfiguracja problemu Mam punkty danych (obrazy) o wysokim wymiarze (4096), które próbuję zwizualizować w 2D. W tym celu używam t-sne w sposób podobny do poniższego przykładowego kodu autorstwa Karpathy . Dokumentacja scikit-learn zaleca użycie PCA, aby najpierw obniżyć wymiar danych: Zdecydowanie zaleca się stosowanie innej metody redukcji wymiarów (np. PCA …

1
Jaka jest różnica między uczeniem się na wiele sposobów a nieliniową redukcją wymiarów?
Jaka jest różnica między uczeniem się na wiele sposobów a nieliniową redukcją wymiarów ? Widziałem te dwa terminy używane zamiennie. Na przykład: http://www.cs.cornell.edu/~kilian/research/manifold/manifold.html : Uczenie się przez kolektory (często określane również jako nieliniowa redukcja wymiarów) ma na celu osadzenie danych, które pierwotnie leżą w przestrzeni o dużych wymiarach w przestrzeni …

2
Zrozumienie tego wykresu sprzedaży lodów PCA w zależności od temperatury
Przyjmuję dane pozorne temperatury w stosunku do sprzedaży lodów i skategoryzowałem je za pomocą K oznacza (n klastrów = 2), aby rozróżnić 2 kategorie (całkowicie pozorne). Teraz przeprowadzam analizę głównych składników tych danych, a moim celem jest zrozumienie tego, co widzę. Wiem, że celem PCA jest zmniejszenie wymiarów (oczywiście nie …

2
Skalowalna redukcja wymiarów
Biorąc pod uwagę stałą liczbę funkcji, Barnes-Hut t-SNE ma złożoność , losowe projekcje i PCA mają złożoność co czyni je „przystępnymi” dla bardzo dużych zestawów danych.O(nlogn)O(nlog⁡n)O(n\log n)O(n)O(n)O(n) Z drugiej strony metody oparte na skalowaniu wielowymiarowym mają złożoność .O(n2)O(n2)O(n^2) Czy istnieją inne techniki redukcji wymiarów (poza trywialnymi, jak na przykład spojrzenie …

1
Nie można sprawić, aby ta sieć autokodera działała poprawnie (z warstwami splotowymi i maxpool)
Sieci autokoderów wydają się znacznie trudniejsze niż normalne sieci MLP klasyfikujące. Po kilku próbach użycia Lasagne wszystko, co otrzymuję w zrekonstruowanym wyjściu, jest w najlepszym razie rozmyte uśrednianie wszystkich obrazów bazy danych MNIST, bez rozróżnienia na to, co faktycznie jest cyfrą wejściową. Wybrana przeze mnie struktura sieci to następujące warstwy …

2
Jak udowodnić, że różnorodne założenie jest prawidłowe?
W uczeniu maszynowym często zakłada się, że zbiór danych leży na gładkim kolektorze o małych wymiarach (założenie rozmaitości), ale czy istnieje jakiś sposób, aby udowodnić, że przy spełnieniu określonych warunków, zbiór danych jest rzeczywiście (w przybliżeniu) generowany z niskiego wymiaru gładkiego kolektora? Na przykład, biorąc pod uwagę sekwencję danych gdzie …

3
Czy ICA wymaga najpierw uruchomienia PCA?
Przejrzałem artykuł oparty na aplikacji, mówiąc, że zastosowanie PCA przed zastosowaniem ICA (przy użyciu pakietu fastICA). Moje pytanie brzmi: czy ICA (fastICA) wymaga uruchomienia PCA w pierwszej kolejności? W artykule wspomniano o tym ... argumentuje się również, że wstępne zastosowanie PCA poprawia wydajność ICA poprzez (1) odrzucenie małych końcowych wartości …

4
Technika nieortogonalna analogiczna do PCA
Załóżmy, że mam zestaw danych punktów 2D i chcę wykryć kierunki wszystkich lokalnych maksimów wariancji w danych, na przykład: PCA nie pomaga w tej sytuacji, ponieważ jest to rozkład ortogonalny i dlatego nie może wykryć obu linii wskazanych przeze mnie na niebiesko, a raczej jego wynik może wyglądać jak ten …

2
Zmienne skośne w PCA lub analizie czynnikowej
Chcę przeprowadzić analizę głównych składników (analizę czynnikową) w SPSS w oparciu o 22 zmienne. Jednak niektóre z moich zmiennych są bardzo wypaczone (skośność obliczona na podstawie zakresów SPSS od 2–80!). Oto moje pytania: Czy powinienem zachować zmienne skośne, czy mogę transformować zmienne podczas analizy głównych składników? Jeśli tak, jak interpretowałbym …


1
Jak interpretować wyniki redukcji wymiarowości / skalowania wielowymiarowego?
Przeprowadziłem zarówno dekompozycję SVD, jak i wielowymiarowe skalowanie 6-wymiarowej macierzy danych, aby lepiej zrozumieć strukturę danych. Niestety, wszystkie wartości w liczbie pojedynczej są tego samego rzędu, co oznacza, że ​​wymiarowość danych rzeczywiście wynosi 6. Chciałbym jednak móc interpretować wartości wektorów w liczbie pojedynczej. Na przykład pierwszy wydaje się być mniej …
Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.