Gdy odkrywam uczenie maszynowe, widzę różne interesujące techniki, takie jak:
- automatycznie dostraja algorytmy za pomocą technik takich jak
grid search
, - uzyskać bardziej dokładne wyniki dzięki połączeniu różnych algorytmów tego samego „typ”, to jest
boosting
, - uzyskać bardziej dokładne wyniki dzięki połączeniu różnych algorytmów (ale nie ten sam rodzaj algorytmów), to
stacking
, - i prawdopodobnie dużo więcej muszę jeszcze odkryć ...
Moje pytanie jest następujące: są wszystkie te kawałki. Ale czy można je połączyć, aby stworzyć algorytm, który pobiera oczyszczone dane i daje dobre wyniki, wykorzystując najlepsze ze wszystkich technik? (Oczywiście będzie to prawdopodobnie mniej wydajne niż profesjonalny naukowiec danych, ale będzie lepszy ode mnie!) Jeśli tak, czy masz przykładowe kody lub znasz ramy, które mogą to zrobić?
EDYCJA: Po kilku odpowiedziach wydaje się, że trzeba trochę zawęzić. Weźmy przykład, mamy jedną kolumnę z danymi kategorycznymi, nazwijmy ją y
i chcemy przewidzieć na podstawie danych liczbowych, X
które są albo manekinami, albo rzeczywistymi danymi liczbowymi (wysokość, temperatura). Zakładamy, że czyszczenie zostało wykonane wcześniej. Czy istnieje algorytm, który może pobierać takie dane i generować prognozy? (testując wiele algorytmów, dostosowując je, wzmacniając itp.) Jeśli tak, to czy jest on wydajny obliczeniowo (czy obliczenia są wykonywane w rozsądnym czasie, jeśli porównamy go z normalnym algorytmem) i czy masz przykład kodu?
auto.arima
(z forecast
biblioteki) mogą być lepsze niż ludzie - Rob Hyndman kilkakrotnie wspominał w swoich prezentacjach. Są więc obszary, w których z powodzeniem stosuje się pewnego rodzaju „automatyczne uczenie się”.