Gdy A i B są zmiennymi pozytywnie powiązanymi, czy mogą mieć odwrotny wpływ na zmienną wynikową C?


Odpowiedzi:


43

Pozostałe odpowiedzi są naprawdę cudowne - dają przykłady z życia.

Chcę wyjaśnić, dlaczego tak się może stać pomimo naszej intuicji, wręcz przeciwnie.

Zobacz to geometrycznie !

Korelacja to cosinus kąta między wektorami. Zasadniczo pytasz, czy to możliwe

  • A tworzykątostryzB (korelacjadodatnia)
  • B tworzykątostryzC (korelacjadodatnia)
  • A tworzykątrozwartyzC ( korelacja ujemna )

Tak oczywiście:

wprowadź opis zdjęcia tutaj

W tym przykładzie ( ρ oznacza korelację):

  • A=(0.6,0.8)
  • B=(1,0)
  • C=(0.6,0.8)
  • ρ(A,B)=0.6>0
  • ρ(b,do)=0,6>0
  • ρ(ZA,do)=-0,28<0

Twoja intuicja jest słuszna!

Jednak twoje zaskoczenie nie jest niewłaściwe.

Kąt między wektorami jest miarą odległości na kuli jednostkowej, więc spełnia nierówność trójkąta:

ZAbZAdo+bdo

skoro więc sałataZAb=ρ(ZA,b) ,

arccosρ(ZA,b)arccosρ(ZA,do)+arccosρ(b,do)

sałata[0,π]

ρ(A,B)ρ(A,C)×ρ(B,C)(1ρ2(A,C))×(1ρ2(B,C))

Więc,

  • ρ(A,C)=ρ(B,C)=0.9ρ(A,B)0.62
  • ρ(A,C)=ρ(B,C)=0.95ρ(A,B)0.805
  • ρ(A,C)=ρ(B,C)=0.99ρ(A,B)0.9602

32

Tak, dwa współwystępujące warunki mogą mieć przeciwne skutki.

Na przykład:

  • Wypełnianie oburzających stwierdzeń (A) jest pozytywnie związane z zabawą (B).
  • Składanie oburzających oświadczeń (A) ma negatywny wpływ na wygrane wybory (C).
  • Rozrywka (B) ma pozytywny wpływ na wygrane wybory (C).

20
Mamy najlepsze odpowiedzi. Najlepszy Wszyscy tak mówią.
Matthew Drury,

1
Chociaż zgadzam się z tą opinią polityczną, myślę, że złym rozwiązaniem jest użycie odpowiedzi na tej stronie jako narzędzia do nieistotnej opinii politycznej.
Kodiolog,

14
@Kodiologist Ta odpowiedź nie zajmuje stanowiska w sprawie żadnego kandydata ani żadnego problemu. To sprawia, że ​​dość nietypowe (imho) spostrzeżenia, że: (1) zabawni kandydaci mają przewagę (np. Ronald Reagan, Bill Clinton, Willie Brown) i (2) wysoce prowokujące wypowiedzi zwykle ranią bardziej niż pomagają (dlatego politycy zwykle nie robią tego typu stwierdzeń). Jeśli jest to strefa, w której nie ma zabawy, mogę to znieść, ale myślę, że to, co napisałem, jest niezwykle łagodne i niekontrowersyjne.
Matthew Gunn,

19
W odpowiedzi nie widzę żadnych bezpośrednich odniesień politycznych. Może istnieć domniemane odniesienie, ale nie sądzę, aby miało to jakikolwiek wpływ na ważność lub przydatność odpowiedzi.
Glen_b

28

Słyszałem analogię samochodu, która dobrze pasuje do pytania:

  • Jazda pod górę (A) jest pozytywnie związana z nadepnięciem kierowcy na gaz (B)
  • Jazda pod górę (A) ma negatywny wpływ na prędkość pojazdu (C)
  • Nadepnięcie na gaz (B) ma pozytywny wpływ na prędkość pojazdu (C)

Kluczem tutaj jest zamiar kierowcy utrzymania stałej prędkości (C), dlatego dodatnia korelacja między A i B naturalnie wynika z tego zamiaru. W ten sposób można konstruować nieskończone przykłady A, B, C.

Analogia pochodzi z interpretacji termostatu Miltona Friedmana i pochodzi z interesującej analizy polityki pieniężnej i ekonometrii, ale nie ma to znaczenia dla pytania.


2
Niezły przykład. Nie jestem jednak pewien, czy używasz terminów „pozytywnie powiązanych” i „negatywnie powiązanych” jako relacji statystycznych (np. Korelacji), co, jak sądzę, oznacza to, co oznacza operacja.
Lior Kogan,

8

Tak, demonstracja za pomocą symulacji jest banalna:

Symuluj 2 zmienne, A i B, które są dodatnio skorelowane:

> require(MASS)
> set.seed(1)
> Sigma <- matrix(c(10,3,3,2),2,2)
> dt <- data.frame(mvrnorm(n = 1000, rep(0, 2), Sigma))
> names(dt) <- c("A","B")
> cor(dt)

          A         B
A 1.0000000 0.6707593
B 0.6707593 1.0000000

Utwórz zmienną C:

> dt$C <- dt$A - dt$B + rnorm(1000,0,5)

Ujrzeć:

> (lm(C~A+B,data=dt))

Coefficients:
(Intercept)            A            B  
    0.03248      0.98587     -1.05113  

Edycja: Alternatywnie (zgodnie z sugestią Kodiologa), po prostu symulując z normalnej zmiennej wielowymiarowej, takiej jak cor(ZA,b)>0, cor(ZA,do)>0 i cor(b,do)<0

> set.seed(1)
> Sigma <- matrix(c(1,0.5,0.5,0.5,1,-0.5,0.5,-0.5,1),3,3)
> dt <- data.frame(mvrnorm(n = 1000, rep(0,3), Sigma, empirical=TRUE))
> names(dt) <- c("A","B","C")
> cor(dt)
    A    B    C
A 1.0  0.5  0.5
B 0.5  1.0 -0.5
C 0.5 -0.5  1.0

Myślę, że lepiej patrzeć cor(C, A)i cor(C, B)niż lm(C ~ A + B)tutaj. Interesuje nas np. Niekontrolowany związek A i C, a nie związek kontrolowany dla B.
Kodiologist

@Kodiolog OP twierdzi w swoim komentarzu, że kontekstem jest SEM, co, jak sądzę, oznaczałoby regresję liniową.
Robert Long,

@Kodiolog zobacz aktualizację mojej odpowiedzi :)
Robert Long,

0

do=mb+n(ZA-projotb(ZA))

następnie

do,ZA=mb,ZA+nZA,ZA-nb,ZA

Wtedy kowariancja między C i A może być ujemna w dwóch warunkach:

  1. n>m, ZA,ZA<b,ZA(n-m)/n
  2. n<m, A,A>B,A(nm)/n
Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.