Krótko mówiąc, regresja logistyczna ma konotacje probabilistyczne, które wykraczają poza zastosowanie klasyfikatora w ML. Mam kilka uwag na temat regresji logistycznej tutaj .
Hipoteza regresji logistycznej zapewnia miarę niepewności w przypadku wystąpienia wyniku binarnego na podstawie modelu liniowego. Wynik jest asymptotycznie ograniczony od do i zależy od modelu liniowego, tak że gdy leżąca u podstaw linia regresji ma wartość , równanie logistyczne wynosi , pod warunkiem naturalny punkt odcięcia dla celów klasyfikacji. Kosztem jest jednak wyrzucenie informacji o prawdopodobieństwie w faktycznym wyniku , co często jest interesujące (np. Prawdopodobieństwo niespłacenia pożyczki przy danym dochodzie, ocenie zdolności kredytowej, wieku itp.).1 0 0,5 = e 0010 h(ΘTx)=e Θ T x0.5=e01+e0h(ΘTx)=eΘTx1+eΘTx
Algorytm klasyfikacji perceptronów jest bardziej podstawową procedurą, opartą na iloczynach między przykładami i wagami . Za każdym razem, gdy przykład jest źle sklasyfikowany, znak iloczynu kłóci się z wartością klasyfikacji ( i ) w zestawie treningowym. Aby to poprawić, przykładowy wektor zostanie iteracyjnie dodany lub odjęty od wektora wag lub współczynników, stopniowo aktualizując jego elementy:1−11
Wektorowo, cechami lub atrybutami przykładu są , a pomysł polega na "przejściu" przykładu, jeśli:xdx
∑1dθixi>theshold lub ...
1 - 1 0 1h(x)=sign(∑1dθixi−theshold) . Funkcja znak daje lub , w przeciwieństwie do i w regresji logistycznej.1- 101
Próg zostanie wchłonięty przez współczynnik odchylenia , . Formuła jest teraz:+ θ0
lub wektoryzacja: h ( x ) = znak ( θ T x ) .h ( x ) = znak ( ∑0reθjaxja)h ( x ) = znak ( θT.x )
sign(θTx)≠ynΘxnynyn
Pracowałem nad różnicami między tymi dwiema metodami w zbiorze danych z tego samego kursu , w którym wyniki testów w dwóch oddzielnych egzaminach są związane z ostateczną akceptacją na studia:
sign(⋅)10
90%
Użyty kod jest tutaj .