Pytania otagowane jako discriminant-analysis

Liniowa analiza dyskryminacyjna (LDA) to metoda redukcji i klasyfikacji wymiarowości. Znajduje podprzestrzeń niskowymiarową z najsilniejszą separacją klas i wykorzystuje ją do klasyfikacji. Użyj tego tagu dla kwadratowego DA (QDA).

1
Nadzorowana redukcja wymiarów
Mam zestaw danych składający się z 15K próbek znakowanych (z 10 grup). Chcę zastosować redukcję wymiarowości do 2 wymiarów, które uwzględnią znajomość etykiet. Kiedy używam „standardowych” nienadzorowanych technik redukcji wymiarów, takich jak PCA, wykres rozproszenia wydaje się nie mieć nic wspólnego ze znanymi etykietami. Czy to, czego szukam, ma imię? …

2
Wybór komponentów PCA, które oddzielają grupy
Często diagnozowałem moje dane wielowymiarowe za pomocą PCA (dane omiczne z setkami tysięcy zmiennych i dziesiątkami lub setkami próbek). Dane często pochodzą z eksperymentów z kilkoma kategorycznymi zmiennymi niezależnymi definiującymi niektóre grupy, i często muszę przejść przez kilka składników, zanim znajdę te, które wykazują rozdział między grupami zainteresowań. Wymyśliłem dość …

1
Algebra LDA. Siła dyskryminacji Fishera zmiennej i liniowej analizy dyskryminacyjnej
Widocznie, analiza Fishera ma jednocześnie na celu maksymalizację rozdziału między klasami, przy jednoczesnym zminimalizowaniu dyspersji wewnątrz klasy. Przydatną miarą mocy dyskryminacyjnej zmiennej jest zatem wielkość przekątna: .bja ja/ Wja jaBii/WiiB_{ii}/W_{ii} http://root.cern.ch/root/htmldoc/TMVA__MethodFisher.html I rozumieć, że wielkość ( p x p) z Między ( B ), a W klasie ( W ) …

2
Dlaczego tak nazywane są „dyskryminacyjne” modele Gaussa?
Modele analizy dyskryminacyjnej Gaussa uczą się a następnie stosują regułę Bayesa do oceny Dlatego są to modele generatywne. Dlaczego zatem nazywa się to analizą dyskryminacyjną? Jeśli dzieje się tak, ponieważ w końcu wyprowadzamy krzywą dyskryminacyjną między klasami, dzieje się tak w przypadku wszystkich modeli generatywnych.P(x|y)P(x|y)P(x|y)P(y|x)=P(x|y)Pprior(y)Σg∈YP(x|g)Pprior(g).P(y|x)=P(x|y)Pprior(y)Σg∈YP(x|g)Pprior(g).P(y|x) = \frac{P(x|y)P_{prior}(y)}{\Sigma_{g \in Y} P(x|g) …

2
Jak obliczyć wagi kryterium Fishera?
Studiuję rozpoznawanie wzorców i uczenie maszynowe i natrafiłem na następujące pytanie. Rozważ problem z klasyfikacją dwóch klas z jednakowym prawdopodobieństwem wcześniejszej klasyP(D1)=P(D2)=12P(D1)=P(D2)=12P(D_1)=P(D_2)= \frac{1}{2} oraz rozkład instancji w każdej klasie podany przez p(x|D1)=N([00],[2001]),p(x|D1)=N([00],[2001]), p(x|D_1)= {\cal N} \left( \begin{bmatrix} 0 \\0 \end{bmatrix}, \begin{bmatrix} 2 & 0 \\ 0 & 1 \end{bmatrix} \right), …


2
Miary separowalności klas w problemach klasyfikacyjnych
Przykładem dobrej miary separowalności klasowej u uczących się z dyskryminacją liniową jest liniowy współczynnik dyskryminacji Fishera. Czy istnieją inne przydatne wskaźniki pozwalające ustalić, czy zestawy funkcji zapewniają dobrą separację klas między zmiennymi docelowymi? W szczególności jestem zainteresowany znalezieniem dobrych wielowymiarowych atrybutów wejściowych dla maksymalizacji separacji klas docelowych i byłoby miło …

3
Czy wartości skalowania w liniowej analizie dyskryminacyjnej (LDA) można wykorzystać do wykreślenia zmiennych objaśniających na liniowych dyskryminatorach?
Korzystając z dwójki wartości uzyskanych w wyniku analizy głównego składnika, możliwe jest zbadanie zmiennych objaśniających, które składają się na każdy podstawowy składnik. Czy jest to również możliwe w przypadku liniowej analizy dyskryminacyjnej? Podane przykłady wykorzystują Dane to „Dane Iris Edgara Andersona” ( http://en.wikipedia.org/wiki/Iris_flower_data_set ). Oto dane tęczówki : id SLength …

3
Kiedy użyjesz PCA zamiast LDA w klasyfikacji?
Czytam ten artykuł na temat różnicy między zasadową analizą składową a analizą wielokrotnych dyskryminacji (liniowa analiza dyskryminacyjna) i próbuję zrozumieć, dlaczego kiedykolwiek używałbyś PCA zamiast MDA / LDA. Wyjaśnienie podsumowano w następujący sposób: z grubsza mówiąc w PCA staramy się znaleźć osie o maksymalnych wariancjach, w których dane są najbardziej …

1
Podejścia Bayesa i Fishera do liniowej analizy dyskryminacyjnej
Znam 2 podejścia do zrobienia LDA, podejście bayesowskie i podejście Fishera . Załóżmy, że mamy dane (x,y)(x,y)(x,y) , gdzie xxx jest predyktorem ppp wymiarowym, a yyy jest zmienną zależnąKKKklas K. Metodą bayesowską obliczamy tylne p(yk|x)=p(x|yk)p(yk)p(x)∝p(x|yk)p(yk)p(yk|x)=p(x|yk)p(yk)p(x)∝p(x|yk)p(yk)p(y_k|x)=\frac{p(x|y_k)p(y_k)}{p(x)}\propto p(x|y_k)p(y_k), i jak powiedziano w książkach, zakładamy, żep(x|yk)p(x|yk)p(x|y_k)jest gaussowską, mamy teraz funkcję dyskryminacyjną dlakkktej klasy …

1
Leczenie wartości odstających wytwarzanych przez Kurtosis
Zastanawiałem się, czy ktoś może mi pomóc z informacjami na temat Kurtozy (tj. Czy istnieje sposób na przekształcenie danych w celu ich zmniejszenia?) Mam zestaw danych kwestionariusza z dużą liczbą przypadków i zmiennych. W przypadku niektórych moich zmiennych dane pokazują dość wysokie wartości kurtozy (tj. Rozkład leptokurtyczny), co wynika z …

1
Analiza skupień, a następnie Analiza dyskryminacyjna
Jakie jest uzasadnienie, jeśli w ogóle, zastosowania analizy dyskryminacyjnej (DA) w odniesieniu do wyników algorytmu grupowania, takiego jak k-średnie, co widzę od czasu do czasu w literaturze (zasadniczo na temat klinicznego podtypu zaburzeń psychicznych)? Zasadniczo nie zaleca się testowania różnic grupowych w zmiennych, które zostały użyte podczas budowy klastra, ponieważ …

1
Pozorna niezgodność źródeł w analizie liniowej, kwadratowej i dyskryminacyjnej Fishera
Studiuję analizę dyskryminacyjną, ale trudno mi pogodzić kilka różnych wyjaśnień. Wydaje mi się, że czegoś mi brakuje, ponieważ nigdy wcześniej nie spotkałem się z takim (pozornym) poziomem rozbieżności. Biorąc to pod uwagę, liczba pytań dotyczących analizy dyskryminacyjnej na tej stronie wydaje się świadczyć o jej złożoności. LDA i QDA dla …

1
Standaryzacja funkcji podczas korzystania z LDA jako etapu wstępnego przetwarzania
Jeśli do redukcji wymiarowości (lub transformacji po zmniejszeniu wymiarowości za pomocą PCA) stosuje się wieloklasową liniową analizę dyskryminacyjną (lub czasami czytam też analizę wielokrotnej dyskryminacji), rozumiem, że ogólnie „normalizacja Z-score” (lub standaryzacja) funkcje nie będą konieczne, nawet jeśli są mierzone w zupełnie innych skalach, prawda? Skoro LDA zawiera termin podobny …

3
LDA vs. perceptron
Staram się wyczuć, jak LDA „pasuje” do innych nadzorowanych technik uczenia się. Przeczytałem już kilka postów na temat LDA na temat LDA. Znam już perceptron, ale dopiero teraz uczę się LDA. W jaki sposób LDA „pasuje” do rodziny nadzorowanych algorytmów uczenia się? Jakie mogą być jego wady w porównaniu z …

Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.