Jak zwykle porównywane są (liniowe) modele efektów mieszanych? Wiem, że można zastosować testy współczynnika prawdopodobieństwa, ale to nie działa, jeśli jeden model nie jest „podzbiorem” drugiego, prawda?
Czy oszacowanie modeli df jest zawsze proste? Szacowana liczba stałych efektów + liczba składników wariancji? Czy ignorujemy oszacowania efektów losowych?
Co z walidacją? Moją pierwszą myślą jest walidacja krzyżowa, ale losowe fałdy mogą nie działać, biorąc pod uwagę strukturę danych. Czy odpowiednia jest metodologia „pomijania jednego przedmiotu / klastra”? Co powiesz na pominięcie jednej obserwacji?
Ślaz Cp można interpretować jako oszacowanie błędu prognozowania modeli. Wybór modelu za pomocą AIC próbuje zminimalizować błąd prognozowania (więc Cp i AIC powinny wybrać ten sam model, jeśli uważam, że błędy są gaussowskie). Czy to oznacza, że AIC lub Cp można wykorzystać do wybrania „optymalnego” liniowego modelu efektów mieszanych ze zbioru niektórych modeli nie zagnieżdżonych pod względem błędu prognozowania? (pod warunkiem, że pasują do tych samych danych) Czy BIC nadal chętniej wybiera „prawdziwy” model wśród kandydatów?
Mam również wrażenie, że porównując modele efektów mieszanych za pomocą AIC lub BIC, w obliczeniach uwzględniamy tylko efekty stałe jako „parametry”, a nie rzeczywiste modele df.
Czy jest jakaś dobra literatura na te tematy? Czy warto badać cAIC lub mAIC? Czy mają one określone zastosowanie poza AIC?