Mam eksperyment, który spróbuję tu streścić. Wyobraź sobie, że rzucam przed sobą trzy białe kamienie i proszę, abyś osądził ich pozycję. Rejestruję różnorodne właściwości kamieni i twoją odpowiedź. Robię to na wiele tematów. Generuję dwa modele. Jednym z nich jest to, że najbliższy kamień przewiduje Twoją odpowiedź, a drugi to, że geometryczny środek kamieni przewiduje Twoją odpowiedź. Używając lmera w RI można pisać.
mNear <- lmer(resp ~ nearest + (1|subject), REML = FALSE)
mCenter <- lmer(resp ~ center + (1|subject), REML = FALSE)
AKTUALIZACJA I ZMIANA - bardziej bezpośrednia wersja zawierająca kilka pomocnych komentarzy
Mogłabym spróbować
anova(mNear, mCenter)
Co jest oczywiście niepoprawne, ponieważ nie są zagnieżdżone i nie mogę ich tak naprawdę porównać. Spodziewałem się, że anova.mer zgłosi błąd, ale tak się nie stało. Ale możliwe zagnieżdżenie, które mógłbym tutaj wypróbować, nie jest naturalne i wciąż pozostawia mi nieco mniej analityczne stwierdzenia. Gdy modele są zagnieżdżone w sposób naturalny (np. Kwadratowy na liniowym), test jest tylko jeden sposób. Ale co w tym przypadku oznaczałoby asymetryczne ustalenia?
Na przykład mógłbym zrobić model trzy:
mBoth <- lmer(resp ~ center + nearest + (1|subject), REML = FALSE)
Więc mogę anova.
anova(mCenter, mBoth)
anova(mNearest, mBoth)
Jest to słuszne i teraz stwierdzam, że środek dodaje do najbliższego efektu (drugie polecenie), ale BIC faktycznie rośnie, gdy najbliższy jest dodawany do środka (korekta dolnego parsimony). Potwierdza to, co było podejrzane.
Ale czy znalezienie tego jest wystarczające? I czy to jest sprawiedliwe, gdy centrum i najbliższy są tak bardzo skorelowani?
Czy istnieje lepszy sposób analitycznego porównania modeli, gdy nie chodzi o dodawanie i odejmowanie zmiennych objaśniających (stopnie swobody)?