„Słaby” uczeń (klasyfikator, predyktor itp.) To taki, który działa stosunkowo słabo - jego dokładność jest wyższa niż przypadek, ale tylko ledwo. Często wiąże się z tym dodatkowa implikacja, że jest ona prosta obliczeniowo. Słaby uczeń sugeruje również, że wiele wystąpień algorytmu jest łączonych (poprzez wzmacnianie, tworzenie worków itp.), Aby stworzyć „silny” klasyfikator zespołu.
Jest wspomniany w oryginalnym artykule AdaBoost Freunda i Schapire'a:
Być może najbardziej zaskakujące z tych aplikacji jest wyprowadzenie nowej aplikacji do „wzmocnienia”, tj. Konwersji „słabego” algorytmu uczenia się PAC, który działa tylko nieco lepiej niż losowe zgadywanie w jedno z arbitralnie wysoką dokładnością. - (Freund i Schapire, 1995)
ale myślę, że to zdanie jest starsze - widziałem, jak ludzie cytują artykuł z okresu (?!) Michaela Kearnsa z lat 80.
Klasycznym przykładem słabego ucznia jest Kikut decyzyjny, drzewo decyzyjne na jednym poziomie (1R lub OneR to kolejny powszechnie używany słaby uczeń; jest dość podobny). Byłoby nieco dziwne nazywanie SVM „słabym uczniem”, nawet w sytuacjach, w których działa on słabo, ale byłoby całkowicie rozsądne nazywanie pojedynczej decyzji kikutem słabego ucznia, nawet jeśli sam sobie radzi zaskakująco dobrze.
Adaboost jest algorytmem iteracyjnym, a zazwyczaj oznacza liczbę iteracji lub „rund”. Algorytm rozpoczyna się od szkolenia / przetestowania słabego ucznia na temat danych, przy równoczesnym ważeniu każdego przykładu. Przykłady, które są źle sklasyfikowane, zwiększają ich wagi w następnej rundzie (rundach), podczas gdy te, które są prawidłowo sklasyfikowane, zmniejszają ich wagi.
T
Nie jestem pewien, czy w jest coś magicznego . W artykule z 1995 r. podano jako parametr swobodny (tzn. Sam go ustawiasz).T=10T