Liniowa analiza dyskryminacyjna (LDA) to metoda redukcji i klasyfikacji wymiarowości. Znajduje podprzestrzeń niskowymiarową z najsilniejszą separacją klas i wykorzystuje ją do klasyfikacji. Użyj tego tagu dla kwadratowego DA (QDA).
Mam zestaw danych składający się z 15K próbek znakowanych (z 10 grup). Chcę zastosować redukcję wymiarowości do 2 wymiarów, które uwzględnią znajomość etykiet. Kiedy używam „standardowych” nienadzorowanych technik redukcji wymiarów, takich jak PCA, wykres rozproszenia wydaje się nie mieć nic wspólnego ze znanymi etykietami. Czy to, czego szukam, ma imię? …
Często diagnozowałem moje dane wielowymiarowe za pomocą PCA (dane omiczne z setkami tysięcy zmiennych i dziesiątkami lub setkami próbek). Dane często pochodzą z eksperymentów z kilkoma kategorycznymi zmiennymi niezależnymi definiującymi niektóre grupy, i często muszę przejść przez kilka składników, zanim znajdę te, które wykazują rozdział między grupami zainteresowań. Wymyśliłem dość …
Widocznie, analiza Fishera ma jednocześnie na celu maksymalizację rozdziału między klasami, przy jednoczesnym zminimalizowaniu dyspersji wewnątrz klasy. Przydatną miarą mocy dyskryminacyjnej zmiennej jest zatem wielkość przekątna: .bja ja/ Wja jaBii/WiiB_{ii}/W_{ii} http://root.cern.ch/root/htmldoc/TMVA__MethodFisher.html I rozumieć, że wielkość ( p x p) z Między ( B ), a W klasie ( W ) …
Modele analizy dyskryminacyjnej Gaussa uczą się a następnie stosują regułę Bayesa do oceny Dlatego są to modele generatywne. Dlaczego zatem nazywa się to analizą dyskryminacyjną? Jeśli dzieje się tak, ponieważ w końcu wyprowadzamy krzywą dyskryminacyjną między klasami, dzieje się tak w przypadku wszystkich modeli generatywnych.P(x|y)P(x|y)P(x|y)P(y|x)=P(x|y)Pprior(y)Σg∈YP(x|g)Pprior(g).P(y|x)=P(x|y)Pprior(y)Σg∈YP(x|g)Pprior(g).P(y|x) = \frac{P(x|y)P_{prior}(y)}{\Sigma_{g \in Y} P(x|g) …
Studiuję rozpoznawanie wzorców i uczenie maszynowe i natrafiłem na następujące pytanie. Rozważ problem z klasyfikacją dwóch klas z jednakowym prawdopodobieństwem wcześniejszej klasyP(D1)=P(D2)=12P(D1)=P(D2)=12P(D_1)=P(D_2)= \frac{1}{2} oraz rozkład instancji w każdej klasie podany przez p(x|D1)=N([00],[2001]),p(x|D1)=N([00],[2001]), p(x|D_1)= {\cal N} \left( \begin{bmatrix} 0 \\0 \end{bmatrix}, \begin{bmatrix} 2 & 0 \\ 0 & 1 \end{bmatrix} \right), …
Jaki jest związek między liniową analizą dyskryminacyjną a regułą Bayesa? Rozumiem, że LDA stosuje się w klasyfikacji, próbując zminimalizować stosunek wariancji wewnątrz grupy i między wariancją grupy, ale nie wiem, w jaki sposób stosuje się w niej zasadę Bayesa.
Przykładem dobrej miary separowalności klasowej u uczących się z dyskryminacją liniową jest liniowy współczynnik dyskryminacji Fishera. Czy istnieją inne przydatne wskaźniki pozwalające ustalić, czy zestawy funkcji zapewniają dobrą separację klas między zmiennymi docelowymi? W szczególności jestem zainteresowany znalezieniem dobrych wielowymiarowych atrybutów wejściowych dla maksymalizacji separacji klas docelowych i byłoby miło …
Korzystając z dwójki wartości uzyskanych w wyniku analizy głównego składnika, możliwe jest zbadanie zmiennych objaśniających, które składają się na każdy podstawowy składnik. Czy jest to również możliwe w przypadku liniowej analizy dyskryminacyjnej? Podane przykłady wykorzystują Dane to „Dane Iris Edgara Andersona” ( http://en.wikipedia.org/wiki/Iris_flower_data_set ). Oto dane tęczówki : id SLength …
Czytam ten artykuł na temat różnicy między zasadową analizą składową a analizą wielokrotnych dyskryminacji (liniowa analiza dyskryminacyjna) i próbuję zrozumieć, dlaczego kiedykolwiek używałbyś PCA zamiast MDA / LDA. Wyjaśnienie podsumowano w następujący sposób: z grubsza mówiąc w PCA staramy się znaleźć osie o maksymalnych wariancjach, w których dane są najbardziej …
Znam 2 podejścia do zrobienia LDA, podejście bayesowskie i podejście Fishera . Załóżmy, że mamy dane (x,y)(x,y)(x,y) , gdzie xxx jest predyktorem ppp wymiarowym, a yyy jest zmienną zależnąKKKklas K. Metodą bayesowską obliczamy tylne p(yk|x)=p(x|yk)p(yk)p(x)∝p(x|yk)p(yk)p(yk|x)=p(x|yk)p(yk)p(x)∝p(x|yk)p(yk)p(y_k|x)=\frac{p(x|y_k)p(y_k)}{p(x)}\propto p(x|y_k)p(y_k), i jak powiedziano w książkach, zakładamy, żep(x|yk)p(x|yk)p(x|y_k)jest gaussowską, mamy teraz funkcję dyskryminacyjną dlakkktej klasy …
Zastanawiałem się, czy ktoś może mi pomóc z informacjami na temat Kurtozy (tj. Czy istnieje sposób na przekształcenie danych w celu ich zmniejszenia?) Mam zestaw danych kwestionariusza z dużą liczbą przypadków i zmiennych. W przypadku niektórych moich zmiennych dane pokazują dość wysokie wartości kurtozy (tj. Rozkład leptokurtyczny), co wynika z …
Jakie jest uzasadnienie, jeśli w ogóle, zastosowania analizy dyskryminacyjnej (DA) w odniesieniu do wyników algorytmu grupowania, takiego jak k-średnie, co widzę od czasu do czasu w literaturze (zasadniczo na temat klinicznego podtypu zaburzeń psychicznych)? Zasadniczo nie zaleca się testowania różnic grupowych w zmiennych, które zostały użyte podczas budowy klastra, ponieważ …
Studiuję analizę dyskryminacyjną, ale trudno mi pogodzić kilka różnych wyjaśnień. Wydaje mi się, że czegoś mi brakuje, ponieważ nigdy wcześniej nie spotkałem się z takim (pozornym) poziomem rozbieżności. Biorąc to pod uwagę, liczba pytań dotyczących analizy dyskryminacyjnej na tej stronie wydaje się świadczyć o jej złożoności. LDA i QDA dla …
Jeśli do redukcji wymiarowości (lub transformacji po zmniejszeniu wymiarowości za pomocą PCA) stosuje się wieloklasową liniową analizę dyskryminacyjną (lub czasami czytam też analizę wielokrotnej dyskryminacji), rozumiem, że ogólnie „normalizacja Z-score” (lub standaryzacja) funkcje nie będą konieczne, nawet jeśli są mierzone w zupełnie innych skalach, prawda? Skoro LDA zawiera termin podobny …
Staram się wyczuć, jak LDA „pasuje” do innych nadzorowanych technik uczenia się. Przeczytałem już kilka postów na temat LDA na temat LDA. Znam już perceptron, ale dopiero teraz uczę się LDA. W jaki sposób LDA „pasuje” do rodziny nadzorowanych algorytmów uczenia się? Jakie mogą być jego wady w porównaniu z …
Używamy plików cookie i innych technologii śledzenia w celu poprawy komfortu przeglądania naszej witryny, aby wyświetlać spersonalizowane treści i ukierunkowane reklamy, analizować ruch w naszej witrynie, i zrozumieć, skąd pochodzą nasi goście.
Kontynuując, wyrażasz zgodę na korzystanie z plików cookie i innych technologii śledzenia oraz potwierdzasz, że masz co najmniej 16 lat lub zgodę rodzica lub opiekuna.