Porównanie nie zagnieżdżonych modeli z AIC


19

Powiedzmy, że mamy GLMM

mod1 <- glmer(y ~ x + A + (1|g), data = dat)
mod2 <- glmer(y ~ x + B + (1|g), data = dat)

Te modele nie są zagnieżdżone w zwykłym sensie:

a <- glmer(y ~ x + A + (1|g),     data = dat)
b <- glmer(y ~ x + A + B + (1|g), data = dat)

więc nie możemy zrobić tego, anova(mod1, mod2)co byśmy zrobili anova(a ,b).

Czy zamiast AIC możemy powiedzieć, który model jest najlepszy?

Odpowiedzi:


24

AIC można zastosować w modelach nie zagnieżdżonych. W rzeczywistości jest to jeden z najbardziej rozpowszechnionych mitów (nieporozumień?) Na temat AIC. Widzieć:

Jedną z rzeczy, na które musisz uważać, jest uwzględnienie wszystkich stałych normalizujących, ponieważ są one różne dla różnych (nie zagnieżdżonych) modeli:

Zobacz też:

W kontekście GLMM bardziej delikatnym pytaniem jest to, jak wiarygodny jest AIC do porównywania tego rodzaju modeli (patrz także @ BenBolker). Inne wersje AIC zostały omówione i porównane w następującym artykule:


2
zauważ, że marginalne i warunkowe rozróżnienie AIC jest najważniejsze przy próbie porównania modeli różniących się zestawami efektów losowych
Ben Bolker

@Chandelier i Ben Bolker dziękuję bardzo za obie odpowiedzi. Czy któryś z was ma bardziej formalne odniesienie do argumentu za użyciem AIC w ten sposób?
user1322296

2
@ user1322296 Proponuję przejść do katalogu głównego, to jest praca Akaike . AIC jest uzyskiwany jako estymator rozbieżności między twoim modelem a „prawdziwym modelem”. Nie zakładano więc zagnieżdżenia, tylko niektóre warunki regularności.
Żyrandol

Czy więc można na przykład porównać AIC dla lm1 = x ~ A + B C i lm2 = x ~ D + B C? Dzięki
crazjo,

Wydaje się, że istnieją modele zagnieżdżone, dla których użycie AIC jest nieodpowiednie. Oto dwa przykłady: 1 i 2 . Czy możesz podać warunki, w których działa wybór zagnieżdżonego modelu?
Carl

10

Dla porównania, kontrargument: Brian Ripley stwierdza w „Wybieranie spośród dużych klas modeli” s. 6-7

Kluczowe założenia ... Modele są zagnieżdżone (przypis: patrz dół strony 615 w przedruku Akaike (1973)). - AIC jest szeroko stosowany, gdy nie są

fa(x|kθ

Ripley, BD 2004. „Wybieranie spośród dużych klas modeli”. W Methods and Models in Statistics , pod redakcją N. Adamsa, M. Crowdera, D. J. Handa i D. Stephensa, 155–70. Londyn, Anglia: Imperial College Press.

Akaike, H. (1973) Teoria informacji i rozszerzenie zasady maksymalnego prawdopodobieństwa. W drugim międzynarodowym sympozjum na temat teorii informacji (Eds BN Petrov i F. Cáski), s. 267–281, Budapeszt. Akademiai Kaidó. Przedruk w Przełomie w statystyce , eds Kotz, S. I Johnson, NL (1992), tom I, str. 599–624. Nowy Jork: Springer.


3

Wygląda na to, że Akaike uważało, że AIC jest użytecznym narzędziem do porównywania modeli zagnieżdżonych.

„Jedną ważną obserwacją dotyczącą AIC jest to, że jest on zdefiniowany bez konkretnego odniesienia do prawdziwego modelu [f (x | kθ)]. Zatem dla dowolnej skończonej liczby modeli parametrycznych zawsze możemy rozważyć model rozszerzony, który będzie odgrywał rolę [f (x | kθ)] Sugeruje to, że AIC może być przydatny, przynajmniej w zasadzie, do porównywania modeli, które nie są odradzane, tj. w sytuacji, w której nie ma zastosowania konwencjonalny test współczynnika prawdopodobieństwa. ”

(Akaike 1985, str. 399)

Akaike, Hirotugu. „Prognozowanie i entropia”. Wybrane dokumenty Hirotugu Akaike. Springer, New York, NY, 1985. 387-410.

Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.