Wielokrotny współczynnik regresji liniowej i korelacja częściowa są bezpośrednio powiązane i mają takie samo znaczenie (wartość p). Częściowe r jest po prostu innym sposobem standaryzacji współczynnika, wraz ze współczynnikiem beta (znormalizowany współczynnik regresji) . Zatem jeśli zmienną zależną jest a niezależnymi są i to1yx1x2
Beta:βx1=ryx1−ryx2rx1x21−r2x1x2
Partial r:ryx1.x2=ryx1−ryx2rx1x2(1−r2yx2)(1−r2x1x2)−−−−−−−−−−−−−−−−√
Widać, że liczniki są takie same, które mówią, że oba wzory mierzyć ten sam niepowtarzalny efekt z . Spróbuję wyjaśnić, w jaki sposób te dwie formuły są strukturalnie identyczne i jak nie są.x1
Załóżmy, że znormalizowałeś (średnia 0, wariancja 1) wszystkie trzy zmienne. Licznik jest zatem równa kowariancji dwóch rodzajów reszt : z (a) pozostawiać resztki w przewidywaniu przez [obie zmienne standard] i (b) pozostałości pozostawione w przewidywaniu przez [obie zmienne standard]. Ponadto wariancja reszt (a) wynosi ; wariancja reszt (b) wynosi .yx2x1x21−r2yx21−r2x1x2
Wzór na korelację częściową pojawia się wtedy wyraźnie wzór zwykłego Pearsona , obliczony w tym przypadku między resztami (a) i resztami (b): wiemy, że Pearson jest kowariancją podzieloną przez mianownik, który jest średnią geometryczną dwie różne warianty.rr
Znormalizowany współczynnik beta jest strukturalnie podobny do Pearsona , tyle że mianownik jest średnią geometryczną wariancji z własnym ja . Wariancja reszt (a) nie została zliczona; zostało zastąpione przez drugie zliczanie wariancji reszt (b). Beta jest zatem kowariancją dwóch reszt względem względnej wariancji jednej z nich (konkretnie tej odnoszącej się do predyktora zainteresowania, ). Chociaż częściowa korelacja, jak już zauważono, to ta sama kowariancja w stosunku do ich wariancji hybrydowej . Oba typy współczynników są sposobami na ujednolicenie efektu w środowisku innych predyktorów.rx1x1
Niektóre liczbowe konsekwencje różnicy. Jeśli R-kwadrat wielokrotnej regresji przez i będzie 1, wówczas obie częściowe korelacje predyktorów z zależną będą również równe 1 wartości bezwzględnej (ale beta na ogół nie będzie 1). W rzeczywistości, jak wspomniano, jest korelacja między resztek i resztek . Jeśli to, co nie jest w jest dokładnie tym , co nie jest w to nie ma nic w co nie ani aniyx1x2ryx1.x2y <- x2
x1 <- x2
x2y x2x1yx1x2 : pełne dopasowanie. Jakakolwiek jest ilość niewyjaśnionej (przez ) części pozostawionej w ( ), jeśli jest ona przechwycona stosunkowo wysoko przez niezależną część (przez ), będzie wysoki. Z drugiej strony będzie wysoki tylko pod warunkiem, że uchwycona niewyjaśniona część jest sama w sobie znaczną częścią .x2y1−r2yx2x11−r2x1x2ryx1.x2βx1yy
Z powyższych wzorów uzyskuje się (i rozciągając od regresji 2-predyktorowej do regresji z dowolną liczbą predyktorów ) wzór konwersji między beta i odpowiadającym jej częściowym r:x1,x2,x3,...
ryx1.X=βx1var(ex1←X)var(ey←X)−−−−−−−−−−√,
gdzie oznacza zbiór wszystkich predyktorów oprócz bieżącego ( ); to reszty z regresji przez , a to reszty z regresji przez , zmienne w obu tych regresjach wprowadzają je znormalizowane .Xx1ey←XyXex1←Xx1X
Uwaga: jeśli musimy obliczyć częściowe korelacje z każdym predyktorem , zwykle nie będziemy używać tej formuły wymagającej wykonania dwóch dodatkowych regresji. Zamiast tego zostaną wykonane operacje przeszukiwania (często stosowane w algorytmach regresji stopniowej i wszystkich podzbiorach) lub obliczona zostanie macierz korelacji antyobrazowej.yx
1 βx1=bx1σx1σy to relacja między surowym a standardowymi współczynnikami regresji z przechwyceniem.bβ