Pod względem matrycy twoje modele mają zwykłą formę . E[Y]=Xβ
Pierwszy model reprezentuje element pierwszej grupy według wiersza w , odpowiadający przecięciu, wskaźnikowi dla kategorii 2 i wskaźnikowi dla kategorii 3. Reprezentuje element drugiej grupy przez wiersz i element trzeciej grupy przez .(1,0,0)X(1,1,0)(1,0,1)
Drugi model używa zamiast tego wierszy , i .(1,1,12)=(1,1,1)(1,2,22)=(1,2,4)(1,3,32)=(1,3,9)
Nazwijmy wynikowe macierze modelu i . Są one po prostu powiązane: kolumny jednego są liniowymi kombinacjami kolumn drugiego. Na przykład pozwólX1X2
V=⎛⎝⎜100112138⎞⎠⎟.
A potem
⎛⎝⎜111010001⎞⎠⎟V=⎛⎝⎜111123149⎞⎠⎟,
wynika, że
X1V=X2.
Same modele są zatem powiązane przez
X1β1=E[Y]=X2β2=(X1V)β2=X1(Vβ2).
Oznacza to, że współczynniki dla drugiego modelu muszą być powiązane ze współczynnikami pierwszego przezβ2
β1=Vβ2.
Ta sama relacja obowiązuje zatem dla ich oszacowań metodą najmniejszych kwadratów. To pokazuje, że modele mają identyczne pasowania : po prostu wyrażają je inaczej.
Ponieważ pierwsze kolumny dwóch matryc modelowych są takie same, żadna tabela ANOVA, która rozkłada wariancję między pierwszą kolumną a pozostałymi kolumnami, nie ulegnie zmianie. Jednak tabela ANOVA, która rozróżnia drugą i trzecią kolumnę, będzie zależeć od sposobu kodowania danych.
Geometrycznie (i nieco bardziej abstrakcyjnie) trójwymiarowa podprzestrzeń wygenerowana przez kolumny pokrywa się z podprzestrzenią wygenerowaną przez kolumny . Dlatego modele będą miały identyczne pasowania. Pasowania są wyrażane inaczej, ponieważ przestrzenie są opisane za pomocą dwóch różnych zasad. X 1 X 2R15X1X2
Aby to zilustrować, oto dane podobne do twoich (ale z różnymi odpowiedziami) oraz odpowiednie analizy wygenerowane w R
.
set.seed(17)
D <- data.frame(group=rep(1:3, each=5), y=rnorm(3*5, rep(1:3, each=5), sd=2))
Dopasuj dwa modele:
fit.1 <- lm(y ~ factor(group), D)
fit.2 <- lm(y ~ group + I(group^2), D)
Wyświetl swoje tabele ANOVA:
anova(fit.1)
anova(fit.2)
Dane wyjściowe dla pierwszego modelu to
Df Sum Sq Mean Sq F value Pr(>F)
factor(group) 2 51.836 25.918 14.471 0.000634 ***
Residuals 12 21.492 1.791
Tak jest w przypadku drugiego modelu
Df Sum Sq Mean Sq F value Pr(>F)
group 1 50.816 50.816 28.3726 0.0001803 ***
I(group^2) 1 1.020 1.020 0.5694 0.4650488
Residuals 12 21.492 1.791
Widać, że pozostałe sumy kwadratów są takie same. Dodając pierwsze dwa wiersze w drugim modelu, otrzymasz ten sam DF i sumę kwadratów, z których można obliczyć ten sam średni kwadrat, wartość F i wartość p.
Na koniec porównajmy szacunkowe współczynniki.
beta.1.hat <- coef(fit.1)
beta.2.hat <- coef(fit.2)
Dane wyjściowe to
(Intercept) factor(group)2 factor(group)3
0.4508762 2.8073697 4.5084944
(Intercept) group I(group^2)
-3.4627385 4.4667371 -0.5531225
Nawet przechwyty są zupełnie inne. Jest tak, ponieważ oszacowania dowolnej zmiennej w regresji wielokrotnej zależą od oszacowań wszystkich innych zmiennych (chyba że wszystkie są wzajemnie ortogonalne, co nie ma miejsca w żadnym modelu). Spójrz jednak, jakie osiąga pomnożenie przez :V
⎛⎝⎜100112138⎞⎠⎟⎛⎝⎜−3.46273854.4667371−0.5531225⎞⎠⎟=⎛⎝⎜0.45087622.80736974.5084944⎞⎠⎟.
Pasowania są naprawdę takie same, jak twierdzono.