Dlaczego nie zawsze korzystać z nauki zespołowej?


13

Wydaje mi się, że uczenie się w zespole zawsze da lepsze wyniki predykcyjne niż w przypadku jednej hipotezy uczenia się.

Dlaczego więc nie używamy ich przez cały czas?

Sądzę, że powodem są być może ograniczenia obliczeniowe? (nawet wtedy używamy słabych predyktorów, więc nie wiem).


2
Ponieważ nauka zespołowa nie zawsze daje lepszą wydajność. Zarówno pakowanie, jak i zwiększanie wydajności w niektórych przypadkach, ale może poważnie obniżyć wydajność w innych.
Marc Claesen

Odpowiedzi:


12

Zasadniczo nie jest prawdą, że zawsze będzie działać lepiej. Istnieje kilka metod zespolonych, z których każda ma swoje zalety / wady. Który użyć, a następnie zależy od danego problemu.

Na przykład, jeśli masz modele o dużej rozbieżności (przewyższają dane), prawdopodobnie skorzystasz z workowania. Jeśli masz tendencyjne modele, lepiej połączyć je z Boostingiem. Istnieją również różne strategie tworzenia zespołów. Temat jest zbyt szeroki, aby ująć go w jednej odpowiedzi.

Ale chodzi mi o to: jeśli użyjesz niewłaściwej metody zestawiania dla swojego ustawienia, nie zrobisz tego lepiej. Na przykład użycie Bagging z tendencyjnym modelem nie pomoże.

Ponadto, jeśli musisz pracować w środowisku probabilistycznym, metody zespołowe również mogą nie działać. Jest on znany , że wzrost (w najbardziej popularnych formach, takich jak adaboost) wykonuje biednych oszacowania prawdopodobieństwa. Oznacza to, że jeśli chcesz mieć model, który pozwala na uzasadnienie swoich danych, a nie tylko na klasyfikację, lepiej byłoby z modelem graficznym.


Kikut decyzyjny jest tendencyjny, ale z powodzeniem stosowano go w workach.

tak, ale zespół jest wciąż stronniczy. Co jeśli błąd jest naprawdę problemem ?. Pakowanie nie pomoże to naprawić. Czy możesz dodać odniesienie do wspomnianej sprawy?
jpmuc
Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.