Dlaczego trudno jest uwzględnić niepewność w efektach losowych podczas prognozowania z modeli mieszanych?


10

Istnieje kilka wątków na temat R-sig-ME na temat uzyskiwania przedziałów ufności dla prognoz przy użyciu lme4iw nlmeR. Na przykład tutaj i tutaj w 2010 r., W tym komentarz Dougalsa Batesa, jednego z autorów obu pakietów. Waham się, by zacytować go dosłownie, z obawy, że zostaną wyjęci z kontekstu, ale tak czy inaczej, jeden komentarz, który pisze

„Łączysz parametry i zmienne losowe w swoich przewidywaniach i nie jestem pewien, co to znaczy oceniać zmienność tych prognoz. Bayesian może być w stanie to zrozumieć, ale nie mogę się tym zająć. „ https://stat.ethz.ch/pipermail/r-sig-mixed-models/2010q1/003447.html

Wiem, że pakiet Bayesian glmm MCMCglmmmoże generować wiarygodne przedziały dla prognoz.

Ostatnio w wersji rozwojowej lme4github podano predictmetodę, ale towarzyszy jej następujący komentarz:

„@ Uwaga: Nie ma opcji obliczania standardowych błędów prognoz, ponieważ trudno jest zdefiniować wydajną metodę uwzględniającą niepewność w parametrach wariancji; zalecamy do tego zadania \ code {\ link {bootMer}}.” https://github.com/lme4/lme4/blob/master/R/predict.R

Dlaczego więc trudno jest uwzględnić niepewność w efektach losowych podczas prognozowania z modeli mieszanych w otoczeniu częstych?

Odpowiedzi:


4

Nie jestem pewien co do komentarza do metody prognozowania, ale główny problem dotyczy generowania łatwo interpretowalnych miar wariancji, a nie miar wariancji per se. Bates nie komentuje w pierwszym cytacie, czy możesz to zrobić, tylko co to oznacza.

Weź prosty wielopoziomowy model dwupoziomowego projektu z powtarzanymi pomiarami. Załóżmy, że masz następujące dane, w których każdy wiersz jest tematem:

wprowadź opis zdjęcia tutaj

W lmermodelu można wyrazić jako:

y ~ x + (1|subject)

Przewidujesz wartość y na podstawie x jako stały efekt (różnica między A i B); i przechwytuje efekt losowy **. Przyjrzyj się uważnie wykresowi i zauważ, że chociaż istnieje zmienność efektu x dla każdego obiektu (nachylenie każdej linii), jest ona stosunkowo niewielka w porównaniu do zmienności między podmiotami (wysokość każdej linii).

Model analizuje te dwa zestawy zmienności i każdy z nich ma znaczenie. Możesz użyć efektów losowych, aby przewidzieć wysokości linii, a możesz użyć stałych efektów x, aby przewidzieć nachylenia. Możesz nawet użyć tych dwóch razem do pracy z naszymi indywidualnymi wartościami y. Ale to, czego nie możesz zrobić, to naprawdę powiedzieć coś znaczącego w odniesieniu do twojego modelu , łącząc ze sobą zmienność nachyleń i wysokości linii. Musisz osobno mówić o zmienności nachyleń i wysokości linii. To cecha modelu, a nie zobowiązanie.

Będziesz miał zmienność działania x, która jest stosunkowo łatwa do oszacowania. Można powiedzieć coś na temat przedziału ufności wokół tego. Zauważ jednak, że ten przedział ufności będzie miał niewielki związek z przewidywaniem jakiejkolwiek konkretnej wartości y, ponieważ na wartość y wpływa kombinacja efektu i wariancji podmiotu, która różni się od zmienności samego efektu.

Kiedy Bates pisze rzeczy, które zacytowałeś, wyobrażam sobie, że często myśli o znacznie bardziej złożonych projektach wielopoziomowych, do których nawet nie podchodzi. Ale nawet jeśli weźmiesz pod uwagę ten prosty przykład, sprowadza się do zastanowienia, jaki rodzaj prawdziwego znaczenia można wyciągnąć z połączenia wszystkich miar wariancji.

** Dla uproszczenia zignorowałem stały efekt przechwytywania i po prostu traktuję go jako efekt losowy. Można wyciągnąć podobne wnioski z jeszcze prostszego modelu tylko z przypadkowym i stałym przechwytywaniem, ale myślę, że trudniej byłoby to przekazać. W takim przypadku ponownie ustalony efekt i efekt losowy są analizowane z jakiegoś powodu i oznaczają różne rzeczy, a połączenie ich zmienności z powrotem dla przewidywanych wartości powoduje, że zmienność ta nie ma sensu w odniesieniu do modelu.


Więc słyszę, jak mówisz, że sprowadza się to do tej samej starej myśli o tym, że nie jesteśmy pewni, czy chcemy traktować wariancję przedmiotu jako błąd, czy podzielić go osobno i udawać, że nie istnieje? Czy to prawda?
russellpierce

Nigdy nie słyszałem tej starej piły. Nigdy nie słyszałem, że powinieneś udawać, że wariancja tematu nie istnieje. Ale przypuszczam, że ma to związek z tym konkretnym przykładem. Model analizuje wariancję. Ta funkcja procesu modelowania pozwala zrozumieć model. Jeśli ponownie zrekombinujesz wariancję, przede wszystkim pokonasz cel modelu. Nie twierdzę, że zignoruj ​​wariancję podmiotu, tylko losowy efekt podmiotu jest osobny. Możesz przeczytać Blouin i Riopelle (2005) i zobaczyć, jak zmienia się znaczenie SE po połączeniu wariancji.
John,

Być może czegoś mi brakuje, ale wygląda na to, że ludzie w przód i w tył mają wpływ na to, jaki rozmiar efektu najlepiej zastosować w analizie ANOVA w obrębie badanych / powtarzanych pomiarów i jak najlepiej wykreślić te przedziały ufności ... ale przypuszczam, że po tym przeczytaj rzecz, na którą mnie wskazałeś, nie będę tęsknił za czymkolwiek, za czym tęsknię. :) Dzięki.
russellpierce

Jak powiedziałem, są spokrewnieni. Nie wiedziałem, że tam iz powrotem, chciałbym zobaczyć referencję. Faktem jest, że dwa CI i efekty, o których mówisz, oznaczają różne rzeczy. Więc używasz tego, co przekazuje to, co chcesz mieć na myśli. I musisz sprawić, by wydawały się rozsądne. [Trudno argumentować (choć niektórzy mają), że umieszczenie CI uwzględniającej wariancję podmiotu wokół średniej w projekcie powtarzanych pomiarów i użycie go do powiedzenia czegoś o efekcie powtarzanych pomiarów jest sensowne.]
John

Nie widziałem nic w literaturze, po prostu dużo nieformalnego wykręcania rąk i próbuje zgadnąć, co pomyśli recenzent du Jour.
russellpierce

1

Przez długi czas zastanawiałem się nad pozornie powszechnym przekonaniem, że istnieje pewna fundamentalna różnica w ustalonych i losowych efektach (ogólnie nieliniowych) modeli efektów mieszanych. Przekonanie to zostało na przykład wyrażone przez Batesa w następującej odpowiedzi

https://stat.ethz.ch/pipermail/r-sig-mixed-models/2010q1/003447.html

Bates wyraźnie stwierdza, że ​​uważa, że ​​istnieje zasadnicza różnica między efektami stałymi i losowymi, więc nie można ich łączyć. Myślę, że się myli i mam nadzieję przekonać kilku czytelników o alternatywnym punkcie widzenia. Stosuję podejście częstokroć, więc chcę zdefiniować pojęcie prawdopodobieństwa profilu dla funkcji zarówno efektów stałych, jak i losowych. Aby motywować dyskusję, załóżmy, że mamy dwuparametrowy model z parametrami xi (jak dotąd brak efektów losowych). Niech będzie funkcją prawdopodobieństwa, w której pomijamy wszelkie odniesienia do danych. Niech P g ( tL(x,u)g(x,u)Pg(t)g

Pg(t)=maxx,u{L(x,u) | g(x,u)=t}\eqno(1)

p(u)g

Pg(t)=maxx,u{L(x,u)p(u) | g(x,u)=t}\eqno(2)
uF(x)
F(x)=L(x,u)p(u)du
uF(x)g(x,u)

g(x,u)unu=(u1,u2,...,un1,un)g(x,u)ung(x,u)=unu1,u2,...,un1

F(x,un)=L(x,u1,...,un)p(u1,...,un))du1du2...dun1\eqno(4)
Pg(t)=maxx,un{F(x,un)|un=t}\eqno(3)
(3)g(x,u)F(x,un)(4)
F(x,s)=limϵ01ϵ{(x,un)|sϵ/2<g(x,un)<s+ϵ/2}L(x,u1,...,un)p(u1,...,un))du1du2...dun\eqno(5)
g(x,u)=un(5)
F(x,s)=limϵ01ϵ{(x,un)|sϵ/2<un<s+ϵ/2}F(x,un)dun\eqno(6)

g(x,u)F(x,s)(5)

Pg(s)=maxx,u{F(x,s)|g(x,u)=s}\eqno(3)

F(x,s)x^(s),u^(s)

x^(s),u^(s)=maxx,u{L(x,u)p(u) | g(x,u)=s}
L(x,u)p(u)xu

gm+n1n+mmnndu1du2dunx^(s),u^(s)gxn(x^(s),u^(s))0x^(s)=0u^(s)=0

(x1,x2,,xm1,u1,u2,,un)(x1,x2,,xm1,i=1m1gxixii=1nguiuigxm,u1,u2,,un)
gxigxim+n1gdui

Ti,j=Hi+m,j+m+guigujgxm2Hm,m\rm for 1<=i,j<=n

T

L(x^(s),u^(s))|T|12
||gϵ0ϵ/g(x^(s),u^(s))g(x^(s),u^(s)))g (gx1,gx2,,gxm,gu1,gu2,,gun) so that the likelihood value on the level set of g is given by
L(x^(s),u^(s))|T|12g(x^(s),u^(s))
This is the correct approximation to use for calculating the profile likelihood.
Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.