Nie mam odpowiedzi z podręcznika. Oto kilka myśli.
Zwiększenie można zobaczyć w bezpośrednim porównaniu z workowaniem. Są to dwa różne podejścia do dylematu kompromisowego wariancji odchylenia. Podczas gdy workowanie ma tak słabych uczniów, niektórzy uczniowie z niskim uprzedzeniem i dużą wariancją, uśredniając zespół zajmujący się pakowaniem, zmniejszają wariancję dla małego uprzedzenia. Z drugiej strony poprawianie działa dobrze z różnymi słabymi uczniami. Wzmacniający słabi uczniowie mają duże uprzedzenie i niską wariancję. Budując jednego ucznia na drugim, zespół wzmacniający próbuje zmniejszyć uprzedzenie, z niewielką różnicą.
W związku z tym, jeśli rozważasz na przykład wykorzystywanie workowania i wzmacniania drzew słabymi uczniami, najlepszym sposobem użycia są małe / krótkie drzewa ze wzmocnieniami i bardzo szczegółowe drzewa z workowaniem. Dlatego bardzo często procedura przypominania wykorzystuje pień decyzji jako słabego ucznia, który jest najkrótszym możliwym drzewem (pojedynczy warunek w jednym wymiarze). Ten kikut decyzyjny jest bardzo stabilny, więc ma bardzo niską wariancję.
Nie widzę żadnego powodu, aby używać drzew z procedurami przypominającymi. Jednak krótkie drzewa są proste, łatwe do wdrożenia i łatwe do zrozumienia. Myślę jednak, że aby odnieść sukces w procedurze przypominającej, twój słaby uczeń musi mieć niską wariancję, musi być sztywny, z bardzo małą liczbą stopni swobody. Na przykład nie widzę sensu, aby jako słaby uczeń mieć sieć neuronową.
Dodatkowo należy zauważyć, że w przypadku niektórych procedur wzmocnienia, na przykład wzmocnienia gradientu, Breiman odkrył, że jeśli słabym uczniem jest drzewo, można zoptymalizować sposób działania wzmocnienia. Mamy więc drzewa zwiększające gradient. W książce ESTL jest miła ekspozycja wzmocnienia.