Pytania otagowane jako cart

„Drzewa klasyfikacji i regresji”. CART jest popularną techniką uczenia maszynowego i stanowi podstawę dla technik takich jak losowe lasy i popularne implementacje maszyn zwiększających gradient.

2
Najlepsze praktyki kodowania funkcji jakościowych dla drzew decyzyjnych?
Podczas kodowania cech kategorycznych dla regresji liniowej obowiązuje zasada: liczba manekinów powinna być o jeden mniejsza niż całkowita liczba poziomów (aby uniknąć kolinearności). Czy istnieje podobna zasada dla drzew decyzyjnych (spakowane, wzmocnione)? Pytam o to, ponieważ standardową praktyką w Pythonie wydaje się być rozszerzanie npoziomów na nmanekiny (sklearny OneHotEncoderlub Pandy …

3
dlaczego metoda wzmocnienia jest wrażliwa na wartości odstające
Znalazłem wiele artykułów, w których stwierdzono, że metody ulepszania są wrażliwe na wartości odstające, ale żaden artykuł nie wyjaśnia, dlaczego. Z mojego doświadczenia wynika, że ​​wartości odstające są złe dla dowolnego algorytmu uczenia maszynowego, ale dlaczego metody wspomagające są wyróżniane jako szczególnie wrażliwe? Jak uszeregować następujące algorytmy pod względem wrażliwości …


1
Różnica w implementacji podziałów binarnych w drzewach decyzyjnych
Jestem ciekawy praktycznej implementacji podziału binarnego w drzewie decyzyjnym - ponieważ dotyczy on poziomów predyktora jakościowego .XjXjX{j} W szczególności często będę używał pewnego rodzaju schematu próbkowania (np. Tworzenie worków, nadpróbkowanie itp.) Podczas budowania modelu predykcyjnego przy użyciu drzewa decyzyjnego - w celu poprawy jego dokładności i stabilności predykcyjnej. Podczas tych …

2
Algorytmy uczenia maszynowego dla danych panelu
W tym pytaniu - Czy istnieje metoda konstruowania drzew decyzyjnych uwzględniająca predyktory strukturalne / hierarchiczne / wielopoziomowe? - wspominają o metodzie danych panelowych dla drzew. Czy istnieją specjalne metody danych panelowych do obsługi maszyn wektorowych i sieci neuronowych? Jeśli tak, czy możesz przytoczyć dokumenty dotyczące algorytmów i (jeśli są dostępne) …

2
Czy losowe lasy wykazują tendencyjne prognozy?
Myślę, że jest to proste pytanie, chociaż uzasadnienie dlaczego lub dlaczego nie może być. Powodem, dla którego pytam, jest to, że niedawno napisałem własną implementację RF i chociaż działa on dobrze, nie działa tak dobrze, jak się spodziewałem (na podstawie zestawu danych konkursowych Kaggle Photo Quality Prediction , zwycięskich wyników …


2
Drzewa decyzyjne i regresja - czy przewidywane wartości mogą znajdować się poza zakresem danych treningowych?
Czy w przypadku drzew decyzyjnych przewidywana wartość może leżeć poza zakresem danych szkoleniowych? Na przykład, jeśli zakres zestawu danych treningowych zmiennej docelowej wynosi 0-100, to kiedy generuję mój model i stosuję go do czegoś innego, czy moje wartości mogą wynosić -5? lub 150? Biorąc pod uwagę, że rozumiem regresję drzewa …


3
Model klasyfikacyjny do przewidywania ocen filmów
Jestem trochę nowy w eksploracji danych i pracuję nad modelem klasyfikacyjnym do przewidywania ocen filmów. Zebrałem zestawy danych z IMDB i planuję użyć drzew decyzyjnych i podejść do najbliższego sąsiada dla mojego modelu. Chciałbym wiedzieć, które swobodnie dostępne narzędzie do eksploracji danych może zapewnić wymaganą funkcjonalność.

2
Próbkowanie MCMC przestrzeni drzewa decyzyjnego vs. losowy las
Losowy las jest zbiorem drzew decyzyjnych tworzonych przez losowo wybierając tylko niektóre funkcje, aby zbudować każde drzewo z (a czasem pakowania danych treningowych). Najwyraźniej dobrze się uczą i generalizują. Czy ktoś zrobił MCMC próbkowanie przestrzeni drzewa decyzyjnego lub porównał je z losowymi lasami? Wiem, że uruchomienie MCMC i zapisanie wszystkich …

2
Organizujesz drzewo klasyfikacyjne (w części) w zbiór reguł?
Czy istnieje sposób, aby po zbudowaniu złożonego drzewa klasyfikacji za pomocą rpart (w R) zorganizować reguły decyzyjne dla każdej klasy? Więc zamiast uzyskać jedno wielkie drzewo, otrzymujemy zestaw reguł dla każdej z klas? (Jeśli tak to jak?) Oto prosty przykład kodu, który pokazuje przykłady: fit <- rpart(Kyphosis ~ Age + …
11 r  classification  cart  rpart 

3
Czy są dostępne biblioteki dla metod podobnych do CART przy użyciu rzadkich predyktorów i odpowiedzi?
Pracuję z niektórymi dużymi zestawami danych przy użyciu pakietu gbm w R. Zarówno moja macierz predykcyjna, jak i mój wektor odpowiedzi są dość rzadkie (tzn. Większość wpisów ma wartość zero). Miałem nadzieję zbudować drzewa decyzyjne przy użyciu algorytmu, który korzysta z tej rzadkości, jak to tutaj zrobiono ). W tym …

2
Dlaczego spakowane drzewo / losowe drzewo leśne ma większe odchylenie niż pojedyncze drzewo decyzyjne?
Jeśli weźmiemy pod uwagę dorosłe drzewo decyzyjne (tj. Drzewo decyzji bez przycinania), ma ono dużą wariancję i niskie odchylenie. Bagging i losowe lasy używają tych modeli o dużej wariancji i agregują je w celu zmniejszenia wariancji, a tym samym zwiększenia dokładności prognoz. Zarówno Bagging, jak i losowe lasy używają próbkowania …

1
R / mgcv: Dlaczego produkty tensorowe te () i ti () wytwarzają różne powierzchnie?
mgcvOpakowanie Rposiada dwie funkcje montowania interakcji produktów napinacz: te()i ti(). Rozumiem podstawowy podział pracy między nimi (dopasowanie interakcji nieliniowej vs. rozkładanie tej interakcji na główne efekty i interakcję). To, czego nie rozumiem, to dlaczego te(x1, x2)i ti(x1) + ti(x2) + ti(x1, x2)może powodować (nieznacznie) różne wyniki. MWE (dostosowany z ?ti): …
11 r  gam  mgcv  conditional-probability  mixed-model  references  bayesian  estimation  conditional-probability  machine-learning  optimization  gradient-descent  r  hypothesis-testing  wilcoxon-mann-whitney  time-series  bayesian  inference  change-point  time-series  anova  repeated-measures  statistical-significance  bayesian  contingency-tables  regression  prediction  quantiles  classification  auc  k-means  scikit-learn  regression  spatial  circular-statistics  t-test  effect-size  cohens-d  r  cross-validation  feature-selection  caret  machine-learning  modeling  python  optimization  frequentist  correlation  sample-size  normalization  group-differences  heteroscedasticity  independence  generalized-least-squares  lme4-nlme  references  mcmc  metropolis-hastings  optimization  r  logistic  feature-selection  separation  clustering  k-means  normal-distribution  gaussian-mixture  kullback-leibler  java  spark-mllib  data-visualization  categorical-data  barplot  hypothesis-testing  statistical-significance  chi-squared  type-i-and-ii-errors  pca  scikit-learn  conditional-expectation  statistical-significance  meta-analysis  intuition  r  time-series  multivariate-analysis  garch  machine-learning  classification  data-mining  missing-data  cart  regression  cross-validation  matrix-decomposition  categorical-data  repeated-measures  chi-squared  assumptions  contingency-tables  prediction  binary-data  trend  test-for-trend  matrix-inverse  anova  categorical-data  regression-coefficients  standard-error  r  distributions  exponential  interarrival-time  copula  log-likelihood  time-series  forecasting  prediction-interval  mean  standard-error  meta-analysis  meta-regression  network-meta-analysis  systematic-review  normal-distribution  multiple-regression  generalized-linear-model  poisson-distribution  poisson-regression  r  sas  cohens-kappa 

Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.