Oceniając „ Zastosowane modelowanie predykcyjne ” recenzent stwierdza :
Jedną z moich krytyk pedagogiki uczenia statystycznego (SL) jest brak uwzględnienia wydajności obliczeń w ocenie różnych technik modelowania. Z naciskiem na ładowanie i weryfikację krzyżową w celu dostrojenia / przetestowania modeli, SL wymaga dużej mocy obliczeniowej. Dodaj do tego ponowne próbkowanie, które jest osadzone w technikach takich jak tworzenie worków i boosting, a masz widmo piekła obliczeniowego do nadzorowanego uczenia się dużych zbiorów danych. W rzeczywistości ograniczenia pamięci R nakładają dość surowe ograniczenia na wielkość modeli, które można dopasować przy użyciu najbardziej skutecznych metod, takich jak losowe lasy. Chociaż SL dobrze wykonuje kalibrację wydajności modelu w stosunku do małych zestawów danych, dobrze byłoby zrozumieć wydajność w porównaniu z kosztem obliczeniowym większych danych.
Jakie są ograniczenia pamięci R. i czy nakładają poważne ograniczenia na wielkość modeli, które można dopasować przy użyciu najbardziej skutecznych metod, takich jak losowe lasy ?