W modelach bez terminów interakcji (to znaczy bez terminów konstruowanych jako iloczyn innych terminów) współczynnik regresji każdej zmiennej jest nachyleniem powierzchni regresji w kierunku tej zmiennej. Jest stały, niezależnie od wartości zmiennych, i dlatego można powiedzieć, że mierzy ogólny efekt tej zmiennej.
W modelach z interakcjami tej interpretacji można dokonać bez dalszej kwalifikacji tylko dla tych zmiennych, które nie są zaangażowane w żadne interakcje. Dla zmiennej, która bierze udział w interakcjach, współczynnik regresji „głównego efektu” - to znaczy współczynnik regresji samej zmiennej - jest nachyleniem powierzchni regresji w kierunku tej zmiennej, gdy wszystkie inne zmienne, które oddziaływanie z tą zmienną ma wartości zerowe , a test istotności współczynnika odnosi się do nachylenia powierzchni regresji tylko w tym obszarze przestrzeni predyktora. Ponieważ nie ma wymogu, aby faktycznie istniały dane w tym obszarze przestrzeni, współczynnik efektu głównego może w niewielkim stopniu przypominać nachylenie powierzchni regresji w obszarze przestrzeni predyktora, w którym faktycznie zaobserwowano dane.
Innymi słowy, współczynnik efektu głównego jest analogiczny do prostego efektu głównego, a nie ogólnego efektu głównego. Co więcej, może odnosić się do tego, co w projekcie anova byłoby pustymi komórkami, w których dane były dostarczane przez ekstrapolację z komórek z danymi.
Aby zmierzyć ogólny efekt zmiennej, który jest analogiczny do ogólnego efektu głównego w anova i nie dokonuje ekstrapolacji poza region, w którym zaobserwowano dane, musimy spojrzeć na średnie nachylenie powierzchni regresji w kierunku zmiennej , gdzie uśrednianie jest dla N zaobserwowanych przypadków. To średnie nachylenie może być wyrażone jako ważona suma współczynników regresji wszystkich terminów w modelu, które obejmują daną zmienną.
Ciężary są trudne do opisania, ale łatwe do zdobycia. Współczynnik głównego efektu zmiennej zawsze otrzymuje wagę 1. Dla każdego innego współczynnika terminu obejmującego tę zmienną, waga jest średnią iloczynu innych zmiennych tego terminu. Na przykład, jeśli mamy pięć „surowych” zmiennych x1, x2, x3, x4, x5
, plus cztery interakcje dwukierunkowe (x1,x2), (x1,x3), (x2,x3), (x4,x5)
i jedną interakcję trójstronną (x1,x2,x3)
, wówczas model jest
y = b0 + b1*x1 + b2*x2 + b3*x3 + b4*x4 + b5*x5 +
b12*x1*x2 + b13*x1*x3 + b23*x2*x3 + b45*x4*x5 +
b123*x1*x2*x3 + e
a ogólne główne efekty to
B1 = b1 + b12*M[x2] + b13*M[x3] + b123*M[x2*x3],
B2 = b2 + b12*M[x1] + b23*M[x3] + b123*M[x1*x3],
B3 = b3 + b13*M[x1] + b23*M[x2] + b123*M[x1*x2],
B4 = b4 + b45*M[x5],
B5 = b5 + b45*M[x4],
gdzie M [.] oznacza średnią próbki ilości w nawiasach. Wszystkie warunki produktu w nawiasach należą do tych, które zostały zbudowane w celu przeprowadzenia regresji, więc program regresji powinien już o nich wiedzieć i być w stanie wydrukować swoje środki na żądanie.
W modelach, które mają tylko główne efekty i interakcje dwukierunkowe, istnieje prostszy sposób na uzyskanie ogólnych efektów: wyśrodkuj [1] surowe zmienne na ich średnich. Należy to zrobić przed obliczeniem warunków produktu i nie można tego zrobić w odniesieniu do produktów. Wtedy wszystkie wyrażenia M [.] Staną się 0, a współczynniki regresji będą interpretowane jako efekty ogólne. Wartości b's zmienią się; wartości B nie będą. Tylko zmienne, które są zaangażowane w interakcje, muszą być wyśrodkowane, ale zwykle nie ma szkody w centrowaniu innych mierzonych zmiennych. Ogólnym efektem centrowania zmiennej jest to, że oprócz zmiany punktu przecięcia zmienia tylko współczynniki innych zmiennych, które oddziałują ze zmienną centrowaną. W szczególności, nie zmienia współczynników żadnych terminów, które dotyczą zmiennej centrowanej. W powyższym przykładzie centrowanie x1 zmieniłoby b0, b2, b3 i b23.
[1 - „Centrowanie” jest używane przez różnych ludzi w sposób, który różni się tylko na tyle, aby spowodować zamieszanie. W użytym tutaj znaczeniu „wyśrodkowanie zmiennej na #” oznacza odjęcie # od wszystkich wyników na zmiennej, przekształcając oryginalne wyniki na odchylenia od #.]
Dlaczego więc nie zawsze rutynowo koncentrować się na środkach? Trzy powody. Po pierwsze, interesujące mogą być same współczynniki efektu głównego zmiennych niecentrowanych. Centrowanie w takich przypadkach przyniosłoby efekt przeciwny do zamierzonego, ponieważ zmienia współczynniki efektu głównego innych zmiennych.
Po drugie, centrowanie spowoduje, że wszystkie wyrażenia M [.] 0, a tym samym przekształci proste efekty w ogólne, tylko w modelach bez interakcji trójstronnych lub wyższych . Jeśli model zawiera takie interakcje, należy wykonać obliczenia b -> B, nawet jeśli wszystkie zmienne są wyśrodkowane na ich średnich wartościach.
Po trzecie, centrowanie na wartości takiej jak średnia, która jest zdefiniowana przez rozkład predyktorów w przeciwieństwie do racjonalnego wyboru, oznacza, że wszystkie współczynniki, na które ma wpływ centrowanie, będą specyficzne dla konkretnej próbki. Jeśli koncentrujesz się na średniej, to ktoś, kto próbuje powtórzyć twoje badanie, musi skoncentrować się na średniej, a nie na własnej średniej, jeśli chce uzyskać te same współczynniki, które masz. Rozwiązaniem tego problemu jest wyśrodkowanie każdej zmiennej na racjonalnie wybranej wartości centralnej tej zmiennej, która zależy od znaczenia wyników i nie zależy od rozkładu wyników. Jednak obliczenia b -> B nadal są konieczne.
Istotność ogólnych efektów można sprawdzić za pomocą zwykłych procedur testowania liniowych kombinacji współczynników regresji. Jednak wyniki należy interpretować ostrożnie, ponieważ ogólne efekty nie są parametrami strukturalnymi, ale zależą od projektu. Parametry strukturalne - współczynniki regresji (niecentryczne lub z racjonalnym centrowaniem) i wariancja błędu - mogą pozostać niezmienne przy zmianach rozkładu predyktorów, ale ogólne efekty na ogół się zmienią. Ogólne efekty są specyficzne dla konkretnej próbki i nie należy oczekiwać, że zostaną przeniesione na inne próbki o różnych rozkładach predyktorów. Jeśli ogólny efekt jest znaczący w jednym badaniu, a nie w innym, może odzwierciedlać jedynie różnicę w rozkładzie predyktorów.