Powiedzmy, że mamy model
mod <- Y ~ X*Condition + (X*Condition|subject)
# Y = logit variable
# X = continuous variable
# Condition = values A and B, dummy coded; the design is repeated
# so all participants go through both Conditions
# subject = random effects for different subjects
summary(model)
Random effects:
Groups Name Variance Std.Dev. Corr
subject (Intercept) 0.85052 0.9222
X 0.08427 0.2903 -1.00
ConditionB 0.54367 0.7373 -0.37 0.37
X:ConditionB 0.14812 0.3849 0.26 -0.26 -0.56
Number of obs: 39401, groups: subject, 219
Fixed effects:
Estimate Std. Error z value Pr(>|z|)
(Intercept) 2.49686 0.06909 36.14 < 2e-16 ***
X -1.03854 0.03812 -27.24 < 2e-16 ***
ConditionB -0.19707 0.06382 -3.09 0.00202 **
X:ConditionB 0.22809 0.05356 4.26 2.06e-05 ***
Tutaj obserwujemy pojedyncze dopasowanie, ponieważ korelacja między efektem przechwytywania a efektami losowymi x wynosi -1. Teraz, zgodnie z tym przydatnym linkiem, jednym ze sposobów radzenia sobie z tym modelem jest usunięcie losowych efektów wyższego rzędu (np. X: ConditionB) i sprawdzenie, czy to robi różnicę podczas testowania osobliwości. Drugim jest zastosowanie podejścia bayesowskiego, np. blme
Pakietu, aby uniknąć osobliwości.
Jaka jest preferowana metoda i dlaczego?
Pytam o to, ponieważ użycie pierwszego lub drugiego prowadzi do różnych wyników - w pierwszym przypadku usunę efekt losowy X: ConditionB i nie będę w stanie oszacować korelacji między efektami losowymi X i X: ConditionB. Z drugiej strony użycie blme
pozwala mi zachować X: ConditionB i oszacować podaną korelację. Nie widzę powodu, dla którego powinienem nawet stosować nie-bayesowskie oszacowania i usuwać losowe efekty, gdy występują pojedyncze dopasowania, kiedy mogę oszacować wszystko za pomocą podejścia bayesowskiego.
Czy ktoś może mi wyjaśnić korzyści i problemy, stosując jedną z metod radzenia sobie z pojedynczymi napadami?
Dziękuję Ci.