W tym warunki interakcji w losowym lesie


15

Załóżmy, że mamy odpowiedź Y i predyktory X1, ...., Xn. Gdybyśmy spróbowali dopasować Y za pomocą liniowego modelu X1, ...., Xn, i tak się po prostu stało, że prawdziwy związek między Y i X1, ..., Xn nie był liniowy, moglibyśmy naprawić model, przekształcając jakoś X, a następnie dopasowując model. Co więcej, jeśli tak się stało, że X1, ..., XN nie wpłynęły na y niezależnie od innych funkcji, moglibyśmy również być w stanie ulepszyć model poprzez włączenie warunków interakcji, x1 * x3 lub x1 * x4 * x7 lub coś podobnego. Tak więc w przypadku liniowym terminy interakcji mogą przynieść wartość poprzez naprawienie naruszeń nieliniowości lub niezależności między odpowiedzią a cechami.

Jednak losowe lasy nie przyjmują takich założeń. Czy dołączanie warunków interakcji jest ważne przy dopasowywaniu losowego lasu? A może samo dołączenie poszczególnych warunków i wybranie odpowiednich parametrów pozwoli Losowym Lasom uchwycić te relacje?

Odpowiedzi:


15

Chociaż inżynieria cech jest bardzo ważna w prawdziwym życiu, drzewa (i losowe lasy) są bardzo dobre w wyszukiwaniu warunków interakcji formy x*y. Oto zabawkowy przykład regresji z dwukierunkową interakcją. Naiwny model liniowy porównuje się z drzewem i workiem drzew (co jest prostszą alternatywą dla losowego lasu).

Jak widać, samo drzewo jest całkiem dobre w znajdowaniu interakcji, ale model liniowy nie jest dobry w tym przykładzie.

# fake data

x <- rnorm(1000, sd=3)
y <- rnorm(1000, sd=3)
z <- x + y + 10*x*y + rnorm(1000, 0, 0.2)
dat <- data.frame(x, y, z)

# test and train split
test <- sample(1:nrow(dat), 200)
train <- (1:1000)[-test]

# bag of trees model function
boot_tree <- function(formula, dat, N=100){
  models <- list()
  for (i in 1:N){
    models[[i]] <- rpart(formula, dat[sample(nrow(dat), nrow(dat), replace=T), ])
  }
  class(models) <- "boot_tree"
  models
}

# prediction function for bag of trees
predict.boot_tree <- function(models, newdat){
  preds <- matrix(0, nc=length(models), nr=nrow(newdat))
  for (i in 1:length(models)){
    preds[,i] <- predict(models[[i]], newdat)
  }
  apply(preds, 1, function(x) mean(x, trim=0.1))
}

## Fit models and predict:

# linear model
model1 <- lm(z ~ x + y, data=dat[train,])
pred1 <- predict(model1, dat[test,])

# tree
require(rpart)
model2 <- rpart(z ~ x + y, data=dat[train,])
pred2 <- predict(model2, dat[test,])

# bag of trees
model3 <- boot_tree("z ~ x+y", dat)
pred3 <- predict(model3, dat[test,])

ylim = range(c(pred1, pred2, pred3))

# plot predictions and true z

plot(dat$z[test], predict(model1, dat[test,]), pch=19, xlab="Actual z",
ylab="Predicted z", ylim=ylim)
points(dat$z[test], predict(model2, dat[test,]), col="green", pch=19)
points(dat$z[test], predict(model3, dat[test,]), col="blue", pch=19)

abline(0, 1, lwd=3, col="orange")

legend("topleft", pch=rep(19,3), col=c("black", "green", "blue"),
legend=c("Linear", "Tree", "Forest"))

wprowadź opis zdjęcia tutaj


4
Bardzo dobrze. Czy masz artykuł, który możesz polecić na ten temat? Dzięki
steinbock,
Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.