Jaka jest intuicja stojąca za niezależnością


18

Miałem nadzieję, że ktoś może zaproponować argument wyjaśniający, dlaczego zmienne losowe Y1=X2X1 i Y2=X1+X2 , o standardowym rozkładzie normalnym, są statystycznie niezależne. Dowód tego faktu łatwo wywodzi się z techniki MGF, ale uważam ją za wyjątkowo sprzeczną z intuicją.Xi

Byłbym wdzięczny za intuicję tutaj, jeśli w ogóle.

Z góry dziękuję.

EDYCJA : Indeksy dolne nie wskazują statystyk porządkowych, ale obserwacje IID ze standardowej normalnej dystrybucji.


Co to jest „technika MGF”?
ameba mówi Przywróć Monikę

@amoeba Jest to użycie funkcji generujących moment w celu ustalenia rozkładu zmiennej losowej. W moim przypadku odnoszę się do twierdzenia, że Y1 i Y2 są niezależne wtedy i tylko wtedy, gdy M(t1,t2)=M(t1,0)×M(0,t2) , M(t1,t2) równa E(et1Y1+t2Y2). Wybierz inną technikę i jestem pewien, że osiągniesz ten sam wynik.
JohnK,

1
Wgląd w blisko związany wątek można znaleźć na stronie stats.stackexchange.com/questions/71260 .
whuber

Można trochę intuicji, rozważając, co dzieje się z każdym z nich, jeśli dodać pewnej stałej, powiedzmy μ , do każdego X . A co się stanie, jeśli pomnożysz każdy X przez stałą, powiedz σ
rvl

Odpowiedzi:


22

Są to standardowe normalne dane rozproszone: wykres punktowy w pierwszym układzie współrzędnych Zauważ, że rozkład jest okrężny symetryczny.

Po zmianie na i Y 2 =Y1=X2X1 , skutecznie obracasz i skalujesz oś w następujący sposób: Nowy układ współrzędnych ma takie samo pochodzenie, jak oryginalny, a oś jest prostokątny. Ze względu na symetrię kołową zmienne są nadal niezależne w nowym układzie współrzędnych.Y2=X1+X2wykres punktowy z obróconym układem współrzędnych


4
Wynik ma zastosowanie nawet wtedy, gdy i X 2 są skorelowane z jednostkowymi marginesami normalnymi. Twoje wyjaśnienie obejmuje więc tylko podtekst oryginalnego wyniku. Jednak podstawową ideą jest tutaj dźwięk. X1X2
Glen_b

1
@Glen_b, tak, masz rację. Chciałem skupić się na prostej sprawie, ponieważ JohnK wydaje się już wiedzieć, jak udowodnić ogólną sprawę, ale brakuje intuicyjnego zrozumienia.
dobiwan

7

Wynik działa dla łącznie normalnie (tj. Z korelacją, - 1 < ρ < 1 ), ze wspólnym σ .(X1,X2)1<ρ<1σ

Jeśli znasz kilka podstawowych wyników, to wszystko, czego potrzebujesz:

wprowadź opis zdjęcia tutaj

podejście dobiwan jest zasadniczo w porządku - po prostu wynik jest bardziej ogólny niż rozpatrywany tam przypadek.


3
+1 za usunięcie pożądanego wyniku do najważniejszych. Dodam, że dla bardziej ogólnego przypadku normalności połączenia z nierównymi wariancjami, obrót osi o zamiast±π
θ=12arctan(2ρσ1σ2σ12σ22)
ukryte w(X1,X2)(X1+X2,X1-X2)tworzy niezależnych normalnych zmiennych losowych. ±π4(X1,X2)(X1+X2.X1X2)
Dilip Sarwate

6

Wynik twierdzisz, aby mogło być prawdziwe nie jest prawdą w ogóle, nawet w przypadku, gdy wszystko to jest znane to, że i X 2 są normalnymi zmiennymi losowymi o identycznym wariancji, ale wynik nie trzymać na zwykłym interpretacji warunku powiedziałeś później:X1X2

Indeksy dolne nie wskazują statystyk porządkowych, ale obserwacje ze standardowej normalnej dystrybucji.

Zwykłą interpretacją kilku ostatnich słów w tym stwierdzeniu jest oczywiście to, że i X 2niezależnymi (normalnymi) zmiennymi losowymi, a zatem łącznie normalnymi zmiennymi losowymi.X1X2

W przypadku wspólnie normalnych zmiennych losowych o identycznej wariancji prawdą jest, że i X 1 - X 2niezależnymi (normalnymi) zmiennymi losowymi (z ogólnie nierównymi wariancjami) i najlepiej podać intuicyjne wyjaśnienie w odpowiedzi Glen_b. W twoim szczególnym przypadku, gdy X 1 i X 2 są również niezależne, odpowiedź dobiwan, którą zaakceptowałeś, jest najprostsza i rzeczywiście pokazuje, że jakikolwiek obrót osi, nie tylko o ± πX1+X2X1X2X1X2 domyślnie w transformacji(X1,X2)(X1+X2,X1-X2), da niezależne zmienne losowe.±π4(X1,X2)(X1+X2,X1X2)


Co można ogólnie powiedzieć? We wszystkim, co mówię poniżej, należy pamiętać, że i Y mają tę samą wariancję , bez względu na to, jakie inne właściwości mogą być im przypisane.XY

Jeśli i Ydowolnymi zmiennymi losowymi (uwaga: niekoniecznie normalna) o identycznej wariancji, wówczas X + Y i X - Ynieskorelowanymi zmiennymi losowymi (to znaczy, że mają zerową kowariancję). Wynika to z faktu, że funkcja kowariancji jest dwuliniowa : cov ( X + Y , X - Y )XYX+YXY Tutaj użyliśmy faktcov(X,X)jest po prostu wariancjivar(X)zX(i podobnie dlaY) i, oczywiście, cov(Y,X)=cov(X,Y). Zauważ, że ten wynik obowiązuje, gdyXiYsą (marginalnie) normalnymi zmiennymi losowymi, ale niekonieczniełącznie

cov(X+Y,XY)=cov(X,X)cov(X,Y)+cov(Y,X)cov(Y,Y)=var(X)cov(X,Y)+cov(X,Y)var(Y)=0.
cov(X,X)var(X)XYcov(Y,X)=cov(X,Y)XYnormalne zmienne losowe. (Jeśli nie znasz pojęcia marginalnej normalności, która nie jest tym samym, co normalność wspólna, zobacz tę wspaniałą odpowiedź kardynała). W szczególnym przypadku, gdy i Ywspólnie normalne (ale niekoniecznie niezależne) normalne zmienne losowe, więc X + Y i X - Y są wspólnie normalne, a ponieważ ich kowariancja wynosi 0 , X + Y i X - Y są losowo niezależne zmienne.XYX+YXY0X+YXY

2

Najpierw argumentuję za ogólnie identycznie rozmieszczonymi że średnia warunkowa Y 1 uwarunkowana na Y 2 jest stała 0 . Na tej podstawie twierdzę, że kowariancja   Y 1 , Y 2X1,X2Y1Y20Y1,Y2 wynosi 0. Zatem, w normalności, zerowa kowariancja oznacza niezależność.

Średnia warunkowa

X1+X2=yX1=x,X2=yxX1=yx,X2=x

X1X2X1+X2X1Y2=yX2Y2=y

E(Y1Y2=y)=E(X1X2X1+X2=y)=E(X1X1+X2=y)E(X2X1+X2=y)=0.

(Caveat: I did not consider the possibility that the conditional mean might not exist.)

Constant conditional mean implies zero correlation/covariance

Intuition: correlation measures how much Y1 tends to increase when Y2 increases. If observing Y2 never changes our mean of Y1, Y1 and Y2 are uncorrelated.

Proof: By definition, covariance is

Cov(Y1,Y2)=E[(Y1E(Y1))(Y2E(Y2))]
to this expectation, we apply the law of iterated expectations: take the expectation of the conditional expectation conditional on Y2:
=E[E[(Y1E(Y1))(Y2E(Y2))Y2]]=E[(Y2E(Y2))E[Y1E(Y1)Y2]].
Recall that the conditional mean was shown to be independent of Y2 and thus the expression simplifies as
=E[(Y2E(Y2))E[Y1E(Y1)]]
but the inner expectation is 0 and we get
=E[(Y2E(Y2))×0]=0.

Independence

Just by assuming identical distributions for X1,X2, it was shown that Y1 and Y2 are uncorrelated. When X1,X2 are jointly normal (for example, iid. normal as in the question), their linear combinations Y1,Y2 are also jointly normal and thus uncorrelatedness implies independence.

Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.