Próbuję zrozumieć, jak działa XGBoost. Już rozumiem, w jaki sposób drzewa wzmocnione gradientem działają na sklearn Pythona. Nie jest dla mnie jasne, czy XGBoost działa w ten sam sposób, ale szybciej, czy istnieją fundamentalne różnice między nim a implementacją Pythona.
Kiedy czytam ten artykuł
http://learningsys.org/papers/LearningSys_2015_paper_32.pdf
Wydaje mi się, że wynik końcowy wychodzący z XGboost jest taki sam jak w implementacji Pythona, jednak główna różnica polega na tym, jak XGboost znajduje najlepszy podział do wykonania w każdym drzewie regresji.
Zasadniczo XGBoost daje ten sam wynik, ale jest szybszy.
Czy to prawda, czy brakuje mi czegoś jeszcze?