związek między regresji prostej i regresji wielokrotnej


10

Bardzo podstawowe pytanie dotyczące regresji OLSR2

  1. uruchomić regresję OLS y ~ x1, mamy , powiedzmy 0.3R2
  2. uruchomić regresję OLS y ~ x2, mamy kolejne , powiedzmy 0,4R2
  3. teraz przeprowadzamy regresję y ~ x1 + x2, jaką wartością może być R dla tej regresji?

Myślę, że jasne jest, że dla regresji wielokrotnej nie powinien być mniejszy niż 0,4, ale czy jest możliwe, aby była większa niż 0,7?R2


2
Wskazówka: może wynosić nawet 1,0. Dlaczego? (Pomyśl geometrycznie. A nawet konkretnie o okręgu jednostki.)
kardynał

Odpowiedzi:


4

Drugi regresor może po prostu nadrobić to, czego pierwszy nie zdołał wyjaśnić w zmiennej zależnej. Oto numeryczny przykład:

Generuj x1jako standardowy normalny regresor, wielkość próby 20. Bez utraty ogólności weź , gdzie jest również . Teraz weź drugi regresor jako po prostu różnicę między zmienną zależną a pierwszym regresorem.yi=0.5x1i+uiuiN(0,1)x2

n <- 20 
x1 <- rnorm(n)

y <- .5*x1 + rnorm(n)

x2 <- y - x1
summary(lm(y~x1))$r.squared
summary(lm(y~x2))$r.squared
summary(lm(y~x1+x2))$r.squared

dzięki! Źle zrozumiałem r kwadrat. Pomyślałem, że jeśli x1 + x2 = yto summary(lm(y~x1))$r.squared + summary(lm(y~x2))$r.squaredpowinno być nie mniej niż 1., ale najwyraźniej się mylę ...
Olivier Ma

3

Poza dolną granicą, która wynosi 0,3 lub 0,4 w zależności od tego, która zmienna wchodzi do modelu jako pierwsza, niewiele można powiedzieć. Ile wzrasta w dużym stopniu zależy od informacji, że druga zmienna doprowadza do modelu. Przez informacje rozumiemy oczywiście wyjaśnioną zmienność odpowiedzi.R2

Jest jedna koncepcja, która jest krytyczna w tym względzie i jest to korelacja między predyktorami. Jeśli korelacja jest duża, nowa zmienna nie tylko nie wniesie niczego do modelu, ale także skomplikuje wnioskowanie dla istniejących zmiennych, ponieważ oszacowania staną się nieprecyzyjne (wielokoliniowość). Właśnie dlatego wolelibyśmy, aby nowa zmienna była prostopadła do innych. Szanse są niewielkie w badaniach obserwacyjnych, ale można to osiągnąć w kontrolowanych warunkach, np. Podczas konstruowania własnego eksperymentu.

Ale jak dokładnie obliczyć nowe informacje, które zmienna wprowadzi do modelu? Jednym powszechnie stosowanym środkiem, który bierze pod uwagę wszystkie te są częściowy . Jeśli znasz ANOVA modelu liniowego, jest to nic innego jak proporcjonalne zmniejszenie sumy błędów kwadratów, które osiągniesz, włączając tę ​​zmienną do swojego modelu. Pożądane są wysokie wartości procentowe, a niskie prawdopodobnie skłonią cię do zastanowienia się, czy to właściwy sposób działania. R2

Tak więc, jak zauważył @cardinal w komentarzach, twój nowy współczynnik determinacji może być tak wysoki jak 1. Może również wynosić nawet 0,00001. Nie ma sposobu, aby powiedzieć bez dodatkowych informacji.


@JohnK, czy mógłbyś wyjaśnić, dlaczego musi być WYJĄTKOWO większy niż 0,4? Czy pomocna byłaby tutaj interpretacja geometryczna regresji?
Dnaiel

@Dnaiel Współczynnik determinacji nie maleje w odniesieniu do liczby zmiennych w modelu.
JohnK

3

Współczynnik determinacji w wielokrotnej regresji liniowej: W wielokrotnej regresji liniowej współczynnik determinacji można zapisać w kategoriach korelacji par dla zmiennych za pomocą postaci kwadratowej:

R2=ry,xTrx,x1ry,x,

gdzie to wektor korelacji między wektorem odpowiedzi a każdym z wektorów objaśniających, a jest macierzą korelacji między wektorami objaśniającymi (więcej informacji na ten temat można znaleźć w powiązanym pytaniu ). W przypadku regresji dwuwymiarowej masz:ry,xrx,x

R2=[rY,X1rY,X2]T[1rX1,X2rX1,X21]1[rY,X1rY,X2]=11rX1,X22[rY,X1rY,X2]T[1rX1,X2rX1,X21][rY,X1rY,X2]=11rX1,X22(rY,X12+rY,X222rX1,X2rY,X1rY,X2).

W swoim pytaniu nie określiłeś kierunków korelacji jednowymiarowych, więc bez utraty ogólności oznaczymy . Podstawienie wartości oraz daje:Dsgn(rY,X1)sgn(rY,X2){1,+1}rY,X12=0.3rY,X22=0.4

R2=0.720.12DrX1,X21rX1,X22.

Możliwe jest, że , ponieważ możliwe jest, że łączna informacja z dwóch zmiennych jest większa niż suma jej części. To interesujące zjawisko nazywa się „ulepszeniem” (patrz np. Lewis i Escobar 1986 ).R2>0.7

Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.