Różnica między losowym lasem a wyjątkowo losowymi drzewami


38

Zrozumiałem, że losowy las i skrajnie losowe drzewa różnią się tym, że podziały drzew w losowym lesie są deterministyczne, podczas gdy są losowe w przypadku ekstremalnie losowych drzew (dokładniej, następny podział jest najlepszym podziałem wśród losowych jednolitych podziałów w wybranych zmiennych dla bieżącego drzewa). Ale nie do końca rozumiem wpływ różnych podziałów w różnych sytuacjach.

  • Jak porównują pod względem odchylenia / wariancji?
  • Jak porównują w przypadku nieistotnych zmiennych?
  • Jak porównują w obecności skorelowanych zmiennych?

2
(a) ERT może czasem być bardziej stronniczy z powodu mniej optymalnych podziałów / ERT czasami zmniejsza wariancję z powodu dalszej dekorelacji drzew; (b) Myślę, że to samo, nie jestem pewien; (c) Chyba tak samo, nie jestem pewien. Dodatkowo: nie nazwałbym podziału deterministycznego RF ze względu na losowe próbkowanie zmiennych, a drzewa oczywiście nie są spowodowane ładowaniem początkowym.
Soren Havelund Welling,

Co jest uniform split?
octavian

Odpowiedzi:


27

Dodatkowe- (randomizowane) -Trees (ET), artykuł zawiera analizę diagonalnych wariancji. Na stronie 16 można zobaczyć porównanie z wieloma metodami, w tym RF na sześciu testach (klasyfikacja drzewa i trzy regresje).

Obie metody są mniej więcej takie same, przy czym ET jest nieco gorszy, gdy występuje duża liczba zaszumionych funkcji (w zestawach danych o dużych wymiarach).

To powiedziawszy, pod warunkiem, że wybór funkcji (być może ręczny) jest prawie optymalny, wydajność jest prawie taka sama, jednak ET mogą być obliczeniowo szybsze.

Z samego artykułu:

Analiza algorytmu i ustalenie optymalnej wartości K dla kilku wariantów problemu testowego wykazało, że wartość ta zasadniczo zależy od specyfiki problemu, w szczególności proporcji nieistotnych atrybutów . [...] Analiza odchylenia / wariancji wykazała, że ​​Extra-Trees działa poprzez zmniejszenie wariancji przy jednoczesnym zwiększeniu odchylenia . [...] Gdy randomizacja wzrośnie powyżej optymalnego poziomu, wariancja nieznacznie maleje, a stronniczość często znacznie wzrasta.

Bez srebrnej kuli jak zawsze.


Pierre Geurts, Damien Ernst, Louis Wehenke. „Niezwykle losowe drzewa”


2
Jakieś odniesienia (empiryczne lub teoretyczne) dotyczące tego, że ET jest nieco gorszy, gdy występuje duża liczba głośnych funkcji? Czy jest to oparte na doświadczeniu?
ramhiser

1
Z mojego doświadczenia wynika, że ​​jest odwrotnie: Extra-Trees radzi sobie lepiej z wieloma głośnymi funkcjami. Z zastrzeżeniem, że musisz mieć duży las (wiele estymatorów, n_estimatorów w sklearn) i dostroić liczbę funkcji branych pod uwagę przy każdym podziale (max_features w sklearn), aby to zadziałało. Pojedyncze drzewko dodatkowe będzie przewyższać więcej niż pojedyncze losowe drzewo leśne, ale jeśli masz wiele drzewek dodatkowych, będą one przeważnie nakładać się na różne sposoby, a nie nadmiernie. Często uzyskuję znaczną poprawę do 3000 estymatorów.
denson

3

Odpowiedź jest taka, że ​​to zależy. Proponuję wypróbować zarówno losowy las, jak i dodatkowe drzewa. Wypróbuj duży las (1000 - 3000 drzew / estymatory, n_estimatory w sklearn) i dostrój liczbę funkcji branych pod uwagę przy każdym podziale (maks. Cechy w sklearn), a także minimalną liczbę próbek na podział (min_samples_split w sklearn) i maksymalną głębokość drzewa ( max_depth w sklearn). To powiedziawszy, należy pamiętać, że nadmierne strojenie może być formą nadmiernego dopasowania.

Oto dwa problemy, nad którymi pracowałem osobiście, w których dodatkowe drzewa okazały się przydatne przy bardzo hałaśliwych danych:

Lasy decyzyjne do klasyfikacji uczenia maszynowego dużych, hałaśliwych zestawów elementów dna morskiego

Wydajne przewidywanie zaburzeń rozproszonego białka za pomocą wklejonych próbek


2

Dziękuję bardzo za odpowiedzi! Ponieważ wciąż miałem pytania, przeprowadziłem kilka symulacji numerycznych, aby uzyskać więcej informacji na temat zachowania tych dwóch metod.

  • Dodatkowe drzewa wydają się utrzymywać wyższą wydajność w obecności hałaśliwych funkcji.

Poniższy obrazek pokazuje wydajność (ocenianą za pomocą walidacji krzyżowej), gdy losowe kolumny nieistotne dla celu są dodawane do zestawu danych. Cel jest po prostu liniową kombinacją pierwszych trzech kolumn. losowy las a dodatkowe drzewa w obecności nieistotnych zmiennych

  • Gdy wszystkie zmienne są istotne, obie metody wydają się osiągać taką samą wydajność,

  • Dodatkowe drzewa wydają się trzy razy szybsze niż losowy las (przynajmniej w implementacji scikit learn)

Źródła

Link do pełnego artykułu: losowy las kontra dodatkowe drzewa .


Z powiązanego artykułu: „Na niebiesko przedstawiono wyniki z losowego lasu i czerwony dla dodatkowych drzew”.
tomsv
Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.