Dlaczego klasyfikator Bayesa jest idealnym klasyfikatorem?


11

Jest uważany za idealny przypadek, w którym struktura prawdopodobieństwa leżąca u podstaw kategorii jest doskonale znana.

Dlaczego dzięki klasyfikatorowi Bayes osiągamy najlepszą wydajność, jaką można osiągnąć?

Jaki jest na to formalny dowód / wyjaśnienie? Jak zawsze używamy klasyfikatora Bayesa jako punktu odniesienia do porównywania wydajności wszystkich innych klasyfikatorów.

Odpowiedzi:


9

Dlaczego dzięki klasyfikatorowi Bayes osiągamy najlepszą wydajność, jaką można osiągnąć? Jaki jest na to formalny dowód / wyjaśnienie?

Zazwyczaj zestaw danych jest uważana składać próbek IID z rozkładem, który generuje dane. Następnie budujesz model predykcyjny na podstawie podanych danych: biorąc pod uwagę próbkę , przewidujesz klasę , podczas gdy prawdziwą klasą próbki jest .Dnxixif ( x I ) F ( x I )f^(xi)f(xi)

Teoretycznie możesz jednak zdecydować, aby nie wybierać jednego konkretnego modelu , ale raczej rozważyć wszystkie możliwe modele na raz i połączyć je jakoś w jeden duży model .f^chosen F Ff^F^

Oczywiście, biorąc pod uwagę dane, wiele mniejszych modeli może być bardzo nieprawdopodobnych lub nieodpowiednich (na przykład modele przewidujące tylko jedną wartość celu, mimo że w zestawie danych jest wiele wartości celu ).D

W każdym razie chcesz przewidzieć wartość docelową nowych próbek, które pochodzą z tego samego rozkładu co . Dobrym miernikiem wydajności twojego modelu byłoby tj. Prawdopodobieństwo, że przewidujesz prawdziwa wartość docelowa dla losowo .xie

e(model)=P[f(X)=model(X)],
X

Korzystając ze wzoru Bayesa, możesz obliczyć, jakie jest prawdopodobieństwo, że nowa próbka ma wartość docelową , biorąc pod uwagę dane :xvD

P(vD)=f^P(vf^)P(f^D).
Należy podkreślić, że

  • zwykle ma wartość lub , ponieważ jest deterministyczną funkcją ,P(vf^)01f xf^x
  • nie zwykle, ale prawie cały czas, nie można oszacować (z wyjątkiem wyżej wspomnianych trywialnych przypadków),P(f^D)
  • Zazwyczaj nie, ale prawie cały czas, liczba możliwych modeli jest zbyt duży, aby górna suma zostać ocenione.f^

Dlatego w większości przypadków bardzo trudno jest uzyskać / oszacować .P(vD)

Teraz przechodzimy do klasyfikatora Optimal Bayes. Dla danego przewiduje wartość Ponieważ jest to najbardziej prawdopodobna wartość spośród wszystkich możliwych wartości docelowych , klasyfikator Optimal Bayes maksymalizuje miarę wydajności .xV = argmax V Ď f P ( V | f ) P ( f | D ) . V E ( f )

v^=argmaxvf^P(vf^)P(f^D).
ve(f^)

Jak zawsze używamy klasyfikatora Bayesa jako punktu odniesienia do porównywania wydajności wszystkich innych klasyfikatorów.

Prawdopodobnie używasz naiwnej wersji klasyfikatora Bayesa. Jest łatwy do wdrożenia, działa dość dobrze przez większość czasu, ale oblicza tylko naiwne oszacowanie .P(vD)


Czy klasyfikator Bayesa (nie naiwny bayes) jest taki sam jak optymalny klasyfikator Bayesa ???? i czy to wcześniejsze prawdopodobieństwo? P(v|f)
RuiQi

@RuiQi Nie sądzę, że istnieje coś takiego jak na klasyfikatora Bayesa. Jestem świadomy naiwnego klasyfikatora Bayesa i optymalnego klasyfikatora Bayesa.
Antoine,

@RuiQi to prawdopodobieństwo, że próbka, która ma zostać sklasyfikowana, zalicza się do klasy jeśli użyjemy modelu predykcyjnego . Myślę, że można to nazwać wcześniejszym prawdopodobieństwem. v fP(vf^)vf^
Antoine,

0

Wydajność pod względem wskaźnika powodzenia klasyfikatora odnosi się do prawdopodobieństwa, że ​​prawdziwa klasa równa się przewidywanej klasie .CTCP

Prawdopodobieństwo to można wyrazić jako całkę wszystkich możliwych sytuacji wektora cech (lub sumy, gdy jest dyskretny) oraz prawdopodobieństwo warunkowe do poprawnej klasyfikacji dla tychXXx

P(CT=CP)=all possible Xf(x)P(CT=CP|x)dx

Gdzie oznacza gęstość prawdopodobieństwa dla wektora cech .f(x)X

Jeśli dla jakiegoś możliwego zestawu cech klasyfikator nie wybierze najbardziej prawdopodobnej klasy dla tego zestawu cech, można go ulepszyć.x

Klasyfikator Bayesa zawsze wybiera najbardziej prawdopodobną klasę dla każdego zestawu cech (termin jest maksymalny), dlatego nie można go ulepszyć, przynajmniej nie w oparciu o cechy .xP(CT=CP|x)x

Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.