Jeśli X
Wskazówka mówi, aby zacząć od 1
Chyba trochę zmieszany, jak to zrobić matematycznie.
Jeśli X
Wskazówka mówi, aby zacząć od 1
Chyba trochę zmieszany, jak to zrobić matematycznie.
Odpowiedzi:
W przypadku zmiennych binarnych ich oczekiwana wartość jest równa prawdopodobieństwu, że są one równe jeden. W związku z tym,
E ( X Y ) = P ( X Y = 1 ) = P ( X = 1 ∩ Y = 1 )E ( X ) = P ( X = 1 )E ( Y ) = P ( Y = 1 )
Jeśli dwa mają zerową kowariancję, oznacza to E ( X Y ) = E ( X ) E ( Y )
P ( X = 1 ∩ Y = 1 ) = P ( X = 1 ) ⋅ P ( Y = 1 )
Trywialne jest obserwowanie mnożenia wszystkich innych prawdopodobieństw połączeń, przy użyciu podstawowych zasad dotyczących niezależnych zdarzeń (tj. Jeśli A
Both correlation and covariance measure linear association between two given variables and it has no obligation to detect any other form of association else.
Tak więc te dwie zmienne mogą być powiązane na kilka innych nieliniowych sposobów, a kowariancja (a zatem korelacja) nie mogła odróżnić od niezależnego przypadku.
Jako bardzo dydaktyczny, sztuczne i dla realistycznego przykład, można rozważyć X tak, że P ( X = x ) = 1 / 3 dla x = - 1 , 0 , 1 i również rozważyć Y = X 2
EDYTOWAĆ
Rzeczywiście, jak wskazał @whuber, powyższa oryginalna odpowiedź była w rzeczywistości komentarzem, w jaki sposób twierdzenie nie jest ogólnie prawdziwe, jeśli obie zmienne niekoniecznie byłyby dychotomiczne. Mój błąd!
So let's math up. (The local equivalent of Barney Stinson's "Suit up!")
If both X
Notice that r=P(X=1,Y=1)
Yes, r
Well, from the above joint distribution, we would have E(X)=0⋅P(X=0)+1⋅P(X=1)=P(X=1)=pE(Y)=0⋅P(Y=0)+1⋅P(Y=1)=P(Y=1)=qE(XY)=0⋅P(XY=0)+1⋅P(XY=1)=P(XY=1)=P(X=1,Y=1)=rCov(X,Y)=E(XY)−E(X)E(Y)=r−pq
Now, notice then that X
About the without loss of generality clause above, if X
Also, we would have E(X′)=E(X−ab−a)=E(X)−ab−aE(Y′)=E(Y−cd−c)=E(Y)−cd−cE(X′Y′)=E(X−ab−aY−cd−c)=E[(X−a)(Y−c)](b−a)(d−c)=E(XY−Xc−aY+ac)(b−a)(d−c)=E(XY)−cE(X)−aE(Y)+ac(b−a)(d−c)Cov(X′,Y′)=E(X′Y′)−E(X′)E(Y′)=E(XY)−cE(X)−aE(Y)+ac(b−a)(d−c)−E(X)−ab−aE(Y)−cd−c=[E(XY)−cE(X)−aE(Y)+ac]−[E(X)−a][E(Y)−c](b−a)(d−c)=[E(XY)−cE(X)−aE(Y)+ac]−[E(X)E(Y)−cE(X)−aE(Y)+ac](b−a)(d−c)=E(XY)−E(X)E(Y)(b−a)(d−c)=1(b−a)(d−c)Cov(X,Y).
=D
IN GENERAL:
The criterion for independence is F(x,y)=FX(x)FY(y). Or fX,Y(x,y)=fX(x)fY(y)
This is nicely explained by Macro here, and in the Wikipedia entry for independence.
independence⇒zero cov, yet
zero cov⇏independence.
Great example: X∼N(0,1), and Y=X2. Covariance is zero (and E(XY)=0, which is the criterion for orthogonality), yet they are dependent. Credit goes to this post.
IN PARTICULAR (OP problem):
These are Bernoulli rv's, X and Y with probability of success Pr(X=1), and Pr(Y=1).
cov(X,Y)=E[XY]−E[X]E[Y]=∗Pr(X=1∩Y=1)−Pr(X=1)Pr(Y=1)⟹Pr(X=1,Y=1)=Pr(X=1)Pr(Y=1).
This is equivalent to the condition for independence in Eq. (1).
(∗):
E[XY]=∗∗∑domain X, YPr(X=x∩Y=y)xy=≠0 iff x×y≠0Pr(X=1∩Y=1).
(∗∗): by LOTUS.
As pointed out below, the argument is incomplete without what Dilip Sarwate had pointed out in his comments shortly after the OP appeared. After searching around, I found this proof of the missing part here:
If events A and B are independent, then events Ac and B are independent, and events Ac and Bc are also independent.
Proof By definition,
A and B are independent ⟺P(A∩B)=P(A)P(B).
But B=(A∩B)+(Ac∪B), so P(B)=P(A∩B)+P(Ac∪B), which yields:
P(Ac∩B)=P(B)−P(A∩B)=P(B)−P(A)P(B)=P(B)[1−P(A)]=P(B)P(Ac).
Repeat the argument for the events Ac and Bc, this time starting from the statement that Ac and B are independent and taking the complement of B.
Similarly. A and Bc are independent events.
So, we have shown already that Pr(X=1,Y=1)=Pr(X=1)Pr(Y=1)