Obecnie używam pakietu R. lme4 .
Używam liniowych modeli efektów mieszanych z efektami losowymi:
library(lme4)
mod1 <- lmer(r1 ~ (1 | site), data = sample_set) #Only random effects
mod2 <- lmer(r1 ~ p1 + (1 | site), data = sample_set) #One fixed effect +
# random effects
mod3 <- lmer(r1 ~ p1 + p2 + (1 | site), data = sample_set) #Two fixed effects +
# random effects
Aby porównać modele, używam anova
funkcji i patrzę na różnice w AIC w stosunku do najniższego modelu AIC:
anova(mod1, mod2, mod3)
Powyższe jest odpowiednie do porównywania modeli.
Potrzebuję jednak również prostego sposobu interpretacji miar dopasowania dla każdego modelu. Czy ktoś ma doświadczenie z takimi środkami? Zrobiłem trochę badań, i są czasopisma na temat kwadratu R dla stałych efektów modeli efektów mieszanych:
- Cheng, J., Edwards, LJ, Maldonado-Molina, MM, Komro, KA i Muller, KE (2010). Rzeczywista analiza danych podłużnych dla prawdziwych ludzi: zbudowanie wystarczająco dobrego modelu mieszanego. Statystyka w medycynie, 29 (4), 504–520. doi: 10.1002 / sim.3775
- Edwards, LJ, Muller, KE, Wolfinger, RD, Qaqish, BF i Schabenberger, O. (2008). Statystyka R2 dla stałych efektów w liniowym modelu mieszanym. Statystyka w medycynie, 27 (29), 6137-6157. doi: 10.1002 / sim.3429
Wydaje się jednak, że istnieje pewna krytyka dotycząca stosowania środków takich jak te zaproponowane w powyższych dokumentach.
Czy ktoś mógłby zasugerować kilka łatwych do interpretacji miar dobroci dopasowania, które mogą mieć zastosowanie do moich modeli?
mixed()
w moim pakiecie afex ( wersja rozwojowa ma również parametryczny bootstrap ). Zobacz tutaj, aby uzyskać odniesienia .
KRmodcomp
z pakietu pbkrtest
. Możesz także użyć KRmodcomp
bezpośrednio do porównania modeli.