I zostały pominie ten przegląd lm / lmer formuł R od @conjugateprior i irytować się według następującego wpisu:
Załóżmy teraz, że A jest losowy, ale B jest stały, a B jest zagnieżdżony w A.
aov(Y ~ B + Error(A/B), data=d)
Poniżej przedstawiono analogiczną formułę modelu mieszanego lmer(Y ~ B + (1 | A:B), data=d)
dla tego samego przypadku.
Nie do końca rozumiem, co to znaczy. W eksperymencie, w którym podmioty są podzielone na kilka grup, mielibyśmy czynnik losowy (podmioty) zagnieżdżony w ustalonym czynniku (grupach). Ale jak można zagnieździć stały czynnik w losowym czynniku? Coś naprawiono zagnieżdżonego w losowych obiektach? Czy to w ogóle możliwe? Jeśli nie jest to możliwe, czy te formuły R mają sens?
Ten przegląd jest wymieniona być częściowo oparte na stronach osobowości projektu na ten ANOVA w R oparła się na tym tutorialu na powtarzanych pomiarów w R . Podany jest następujący przykład ANOVA dla powtarzanych pomiarów:
aov(Recall ~ Valence + Error(Subject/Valence), data.ex3)
Tutaj uczestnikom przedstawiono słowa o różnej wartościowości (czynnik z trzema poziomami) i mierzono ich czas przywołania. Każdemu tematowi przedstawiane są słowa ze wszystkich trzech poziomów walencyjnych. Nie widzę nic zagnieżdżonego w tym projekcie (wydaje się, że jest skrzyżowane, jak na wspaniałą odpowiedź tutaj ), więc naiwnie pomyślałbym, że Error(Subject)
lub (1 | Subject)
powinien być odpowiedni losowy termin w tym przypadku. Subject/Valence
„Zagnieżdżanie” (?) Jest niejasna.
Zauważ, że rozumiem, że Valence
jest to czynnik wewnątrz podmiotu . Ale myślę, że nie jest to czynnik „zagnieżdżony” w podmiotach (ponieważ wszyscy badani doświadczają wszystkich trzech poziomów Valence
).
Aktualizacja. Badam pytania na temat CV dotyczące kodowania powtarzanych miar ANOVA w R.
W tym przypadku stosuje się następujące ustalone i powtarzane miary w obrębie podmiotu / powtarzane miary
subject
:summary(aov(Y ~ A + Error(subject/A), data = d)) anova(lme(Y ~ A, random = ~1|subject, data = d))
Tutaj dla dwóch stałych efektów A i B w obrębie podmiotu / powtarzanych pomiarów:
summary(aov(Y ~ A*B + Error(subject/(A*B)), data=d)) lmer(Y ~ A*B + (1|subject) + (1|A:subject) + (1|B:subject), data=d)
Tutaj dla trzech wewnętrznych efektów A, B i C:
summary(aov(Y ~ A*B*C + Error(subject/(A*B*C)), data=d)) lmer(Y ~ A*B*C + (1|subject) + (0+A|subject) + (0+B|subject) + (0+C|subject) + (0+A:B|subject) + (0+A:C|subject) + (0+B:C|subject), data = d)
Moje pytania:
- Dlaczego
Error(subject/A)
nieError(subject)
? - Jest to
(1|subject)
albo(1|subject)+(1|A:subject)
lub po prostu(1|A:subject)
? - Jest to
(1|subject) + (1|A:subject)
czy(1|subject) + (0+A|subject)
i dlaczego nie wystarczy(A|subject)
?
Do tej pory widziałem kilka wątków, które twierdzą, że niektóre z tych rzeczy są równoważne (np. Pierwszy: twierdzenie, że są takie same, ale przeciwne twierdzenie dotyczące SO ; trzeci: rodzaj twierdzenia, że są takie same ). Czy oni są?
subject/condition
ten, jest to koncepcyjnie wątpliwe, ponieważ wydaje się sugerować, że warunki są zagnieżdżone w podmiotach, kiedy wyraźnie jest odwrotnie, ale faktycznie jest subject + subject:condition
to model, który jest idealnie prawidłowym modelem z przypadkowymi efektami podmiotowymi i losowe stoki obiektu X.
lm
i aov
formuły? Jeśli chcę mieć wiarygodne źródło tego, na czym dokładnie aov
polega (czy jest to opakowanie lm
?) I jak Error()
działają warunki, gdzie powinienem szukać?
aov
jest opakowaniem lm
w tym sensie, że lm
jest używane dla dopasowania najmniejszych kwadratów, ale aov
wykonuje dodatkową pracę (zwłaszcza tłumacząc Error
termin lm
). Autorytatywnym źródłem jest kod źródłowy lub ewentualnie odniesienie podane w help("aov")
: Chambers i in. (1992). Ale nie mam dostępu do tego odwołania, więc zajrzałbym do kodu źródłowego.