Pytania otagowane jako discriminant-analysis

Liniowa analiza dyskryminacyjna (LDA) to metoda redukcji i klasyfikacji wymiarowości. Znajduje podprzestrzeń niskowymiarową z najsilniejszą separacją klas i wykorzystuje ją do klasyfikacji. Użyj tego tagu dla kwadratowego DA (QDA).

2
Regresja logistyczna a LDA jako klasyfikatory dwuklasowe
Próbuję owinąć głowę wokół różnicy statystycznej między liniową analizą dyskryminacyjną a regresją logistyczną . Czy słusznie rozumiem, że w przypadku problemu klasyfikacji dwóch klas LDA przewiduje dwie funkcje gęstości normalnej (po jednej dla każdej klasy), które tworzą granicę liniową w miejscu ich przecięcia, podczas gdy regresja logistyczna przewiduje jedynie funkcję …

2
Dlaczego LDA Python scikit-learn LDA nie działa poprawnie i jak oblicza LDA przez SVD?
Użyłem liniowej analizy dyskryminacyjnej (LDA) z scikit-learnbiblioteki uczenia maszynowego (Python) do redukcji wymiarów i byłem trochę ciekawy wyników. Zastanawiam się teraz, czym scikit-learnzajmuje się LDA, aby wyniki wyglądały inaczej niż np. Ręczne podejście lub LDA wykonane w R. Byłoby wspaniale, gdyby ktoś mógł dać mi tutaj jakieś spostrzeżenia. Zasadniczo najbardziej …

2
Trzy wersje analizy dyskryminacyjnej: różnice i sposób ich użycia
Czy ktoś może wyjaśnić różnice i podać konkretne przykłady wykorzystania tych trzech analiz? LDA - liniowa analiza dyskryminacyjna FDA - Analiza dyskryminacyjna Fishera QDA - Kwadratowa analiza dyskryminacyjna Szukałem wszędzie, ale nie mogłem znaleźć prawdziwych przykładów z prawdziwymi wartościami, aby zobaczyć, jak te analizy są wykorzystywane i obliczane dane, tylko …

1
PCA, LDA, CCA i PLS
W jaki sposób powiązane są PCA, LDA, CCA i PLS? Wszystkie wydają się „widmowe” i algebraiczne liniowe i bardzo dobrze rozumiane (powiedzmy, że ponad 50 lat teorii wokół nich zbudowanych). Są używane do bardzo różnych rzeczy (PCA do redukcji wymiarów, LDA do klasyfikacji, PLS do regresji), ale nadal czują się …

2
Czy ma sens łączenie PCA i LDA?
Załóżmy, że mam zestaw danych do nadzorowanego zadania klasyfikacji statystycznej, np. Za pomocą klasyfikatora Bayesa. Ten zestaw danych składa się z 20 elementów i chcę sprowadzić go do 2 elementów za pomocą technik redukcji wymiarów, takich jak analiza głównych składników (PCA) i / lub liniowa analiza dyskryminacyjna (LDA). Obie techniki …


1
W jaki sposób LDA, technika klasyfikacji, służy również jako technika redukcji wymiarów, jak PCA
W tym artykule autor łączy liniową analizę dyskryminacyjną (LDA) z analizą głównych składników (PCA). Przy mojej ograniczonej wiedzy nie jestem w stanie śledzić, w jaki sposób LDA może być nieco podobny do PCA. Zawsze uważałem, że LDA jest formą algorytmu klasyfikacji, podobną do regresji logistycznej. Będę wdzięczny za pomoc w …

1
Oblicz i wykreśl granicę decyzyjną LDA
Widziałem wykres LDA (liniowa analiza dyskryminacyjna) z granicami decyzyjnymi z elementów uczenia statystycznego : Rozumiem, że dane są rzutowane na podprzestrzeń o niższych wymiarach. Chciałbym jednak wiedzieć, w jaki sposób uzyskujemy granice decyzji w oryginalnym wymiarze, tak że mogę rzutować granice decyzji na podprzestrzeń o niższych wymiarach (lubi czarne linie …

1
W jaki sposób MANOVA jest powiązana z LDA?
W kilku miejscach widziałem twierdzenie, że MANOVA jest jak ANOVA plus liniowa analiza dyskryminacyjna (LDA), ale zawsze była wykonywana w sposób machający ręką. Chciałbym wiedzieć, co to dokładnie znaczy. Znalazłem różne podręczniki opisujące wszystkie szczegóły obliczeń MANOVA, ale wydaje się, że bardzo trudno jest znaleźć dobrą ogólną dyskusję (nie mówiąc …



3
Zmienne współliniowe w szkoleniu Multlass LDA
Trenuję wieloklasowy klasyfikator LDA z 8 klasami danych. Podczas treningu otrzymuję ostrzeżenie: „ Zmienne są współliniowe ” Dostaję dokładność szkolenia ponad 90% . Korzystam z biblioteki scikits-learn w Pythonie do trenowania i testowania danych Multi-class. Dostaję też przyzwoitą dokładność testowania (około 85% -95% ). Nie rozumiem, co oznacza błąd / …

3
Analiza dyskryminacyjna a regresja logistyczna
Znalazłem zalety analizy dyskryminacyjnej i mam pytania na ich temat. Więc: Gdy klasy są dobrze rozdzielone, oszacowania parametrów regresji logistycznej są zaskakująco niestabilne. Współczynniki mogą sięgać nieskończoności. LDA nie cierpi z powodu tego problemu. Jeśli liczba cech jest niewielka, a rozkład predyktorów XXX jest w przybliżeniu normalny w każdej z …


1
Wyprowadzanie całkowitej (w ramach klasy + między klasami) macierzy rozproszenia
Bawiłem się metodami PCA i LDA i utknąłem w pewnym momencie, mam wrażenie, że jest to tak proste, że nie widzę tego. Macierze rozproszenia wewnątrz klasy ( ) i między klasami ( S_B ) są zdefiniowane jako:S BSWSWS_WSBSBS_B SW=∑i=1C∑t=1N(xit−μi)(xit−μi)TSW=∑i=1C∑t=1N(xti−μi)(xti−μi)T S_W = \sum_{i=1}^C\sum_{t=1}^N(x_t^i - \mu_i)(x_t^i - \mu_i)^T SB=∑i=1CN(μi−μ)(μi−μ)TSB=∑i=1CN(μi−μ)(μi−μ)T S_B = \sum_{i=1}^CN(\mu_i-\mu)(\mu_i-\mu)^T …

Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.