Pytania otagowane jako random-forest

Losowy las to metoda uczenia maszynowego polegająca na łączeniu wyników wielu drzew decyzyjnych.

2
Dlaczego CNN kończą się warstwami FC?
Z mojego zrozumienia, CNN składają się z dwóch części. Pierwsza część (warstwy konw / pula), która wykonuje ekstrakcję cech, a druga część (warstwy fc), która dokonuje klasyfikacji na podstawie cech. Skoro w pełni połączone sieci neuronowe nie są najlepszymi klasyfikatorami (tzn. Osiągają lepsze wyniki od SVM i RF przez większość …


1
Losowe Wagi leśne i klasowe
Pytanie w jednym zdaniu: Czy ktoś wie, jak ustalić dobre wagi klas dla losowego lasu? Objaśnienie: Bawię się niezrównoważonymi zestawami danych. Chcę użyć tego Rpakietu randomForest, aby wyszkolić model na bardzo wypaczonym zbiorze danych z niewielkimi pozytywnymi przykładami i wieloma negatywnymi przykładami. Wiem, że istnieją inne metody i na koniec …
11 r  random-forest 

1
Dlaczego duży wybór K obniża mój wynik weryfikacji krzyżowej?
Zabawy z Boston Housing zestawem danych i RandomForestRegressor(W / domyślne parametry) w scikit-learn, zauważyłem coś dziwnego: średni wynik walidacji krzyżowej spadła jak zwiększona ilość fałd poza 10. Moja strategia cross-walidacja była następująca: cv_met = ShuffleSplit(n_splits=k, test_size=1/k) scores = cross_val_score(est, X, y, cv=cv_met) ... gdzie num_cvsbyło zróżnicowane. Ustawić test_sizena 1/num_cvslustro pociągu …

2
Drzewa decyzyjne i regresja - czy przewidywane wartości mogą znajdować się poza zakresem danych treningowych?
Czy w przypadku drzew decyzyjnych przewidywana wartość może leżeć poza zakresem danych szkoleniowych? Na przykład, jeśli zakres zestawu danych treningowych zmiennej docelowej wynosi 0-100, to kiedy generuję mój model i stosuję go do czegoś innego, czy moje wartości mogą wynosić -5? lub 150? Biorąc pod uwagę, że rozumiem regresję drzewa …

2
Pobieranie próbek z zamianą w R randomForest
Implementacja randomForest nie pozwala na pobieranie próbek poza liczbę obserwacji, nawet w przypadku pobierania próbek z wymianą. Dlaczego to? Działa w porządku: rf <- randomForest(Species ~ ., iris, sampsize=c(1, 1, 1), replace=TRUE) rf <- randomForest(Species ~ ., iris, sampsize=3, replace=TRUE) Co chcę robić: rf <- randomForest(Species ~ ., iris, sampsize=c(51, …

2
Próbkowanie MCMC przestrzeni drzewa decyzyjnego vs. losowy las
Losowy las jest zbiorem drzew decyzyjnych tworzonych przez losowo wybierając tylko niektóre funkcje, aby zbudować każde drzewo z (a czasem pakowania danych treningowych). Najwyraźniej dobrze się uczą i generalizują. Czy ktoś zrobił MCMC próbkowanie przestrzeni drzewa decyzyjnego lub porównał je z losowymi lasami? Wiem, że uruchomienie MCMC i zapisanie wszystkich …

1
Zmniejszenie liczby poziomów nieuporządkowanej jakościowej zmiennej predykcyjnej
Chcę wytrenować klasyfikator, powiedzmy SVM, losowy las lub inny klasyfikator. Jedną z cech zestawu danych jest zmienna kategoryczna z 1000 poziomami. Jaki jest najlepszy sposób na zmniejszenie liczby poziomów w tej zmiennej. W R jest funkcja wywoływana combine.levels()w pakiecie Hmisc , która łączy rzadkie poziomy, ale szukałem innych sugestii.

2
Czy istnieje sposób na wyjaśnienie prognozy z losowego modelu lasu?
Powiedzmy, że mam predykcyjny model klasyfikacji oparty na losowym lesie (używając pakietu randomForest w R). Chciałbym to skonfigurować, aby użytkownicy końcowi mogli określić element, dla którego ma zostać wygenerowana prognoza, i wyświetli prawdopodobieństwo klasyfikacji. Jak dotąd nie ma problemu. Byłoby jednak użyteczne / fajne, aby móc wygenerować coś w rodzaju …

2
Dlaczego spakowane drzewo / losowe drzewo leśne ma większe odchylenie niż pojedyncze drzewo decyzyjne?
Jeśli weźmiemy pod uwagę dorosłe drzewo decyzyjne (tj. Drzewo decyzji bez przycinania), ma ono dużą wariancję i niskie odchylenie. Bagging i losowe lasy używają tych modeli o dużej wariancji i agregują je w celu zmniejszenia wariancji, a tym samym zwiększenia dokładności prognoz. Zarówno Bagging, jak i losowe lasy używają próbkowania …

1
Motywacja za losowymi krokami algorytmu lasu
Znana mi metoda konstruowania losowego lasu jest następująca: (z http://www.stat.berkeley.edu/~breiman/RandomForests/cc_home.htm ) Aby zbudować drzewo w lesie: Bootstrap próbkę o rozmiarze N, gdzie N jest rozmiarem naszego zestawu treningowego. Użyj tej próbki startowej jako zestawu treningowego dla tego drzewa. W każdym węźle drzewa losowo wybierz m naszych funkcji M. Wybierz najlepsze …

1
Jak obliczyć wyniki ufności w regresji (z losowymi lasami / XGBoost) dla każdej prognozy w R?
Czy istnieje sposób na uzyskanie wyniku ufności (możemy nazwać to również wartością ufności lub prawdopodobieństwa) dla każdej przewidywanej wartości, gdy stosuje się algorytmy takie jak Losowe Lasy lub Ekstremalne Zwiększanie Gradientu (XGBoost)? Powiedzmy, że ten wynik pewności wynosiłby od 0 do 1 i pokazuje, jak jestem pewny co do konkretnej …

1
Czy powinienem wybrać regresor lub klasyfikator Random Forest?
Dopasowuję zestaw danych do binarnej klasy docelowej przy losowym lesie. W Pythonie mogę to zrobić przez randomforestclassifier lub randomforestregressor. Mogę uzyskać klasyfikację bezpośrednio z randomforestclassifier lub mogę najpierw uruchomić randomforestregressor i odzyskać zestaw oszacowanych wyników (wartość ciągła). Następnie mogę znaleźć wartość graniczną, aby uzyskać przewidywane klasy z zestawu wyników. Obie …


2
Losowy las na zgrupowanych danych
Używam losowego lasu na wielowymiarowych zgrupowanych danych (50 liczbowych zmiennych wejściowych), które mają strukturę hierachiczną. Dane zebrano przy 6 replikacjach w 30 pozycjach 70 różnych obiektów, co dało 12600 punktów danych, które nie są niezależne. Wygląda na to, że losowy las przesadza z danymi, ponieważ błąd OOB jest znacznie mniejszy …

Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.