Być może poprzez uproszczenie zapisu możemy wydobyć podstawowe idee. Okazuje się, że nie potrzebujemy angażować oczekiwań ani skomplikowanych formuł, ponieważ wszystko jest czysto algebraiczne.
Algebraiczna natura obiektów matematycznych
Pytanie dotyczy relacji między (1) macierzą kowariancji skończonego zbioru zmiennych losowych oraz (2) relacjami liniowymi między tymi zmiennymi, uważanymi za wektory .X1,…,Xn
Przestrzeń wektorową o którym mowa, jest to zbiór wszystkich skończonych wariancji zmiennej losowej (w danym miejscu prawdopodobieństwa ) modulo podprzestrzeni zmiennych prawie na pewno stałych, oznaczono L 2 ( Ω , P ) / R . (To znaczy, uważamy dwie losowe zmienne X i Y za ten sam wektor, gdy istnieje zerowa szansa, że X - Y różni się od jego oczekiwań.) Mamy do czynienia tylko z przestrzenną przestrzenią wektorową V generowaną przez X i ,(Ω,P)L2(Ω,P)/R.XYX−YVXi, co sprawia, że jest to problem algebraiczny, a nie analityczny.
Co musimy wiedzieć o wariancjach
jest czymś więcej niż przestrzenią wektorową: jestmodułem kwadratowym,ponieważ jest wyposażony w wariancję. Wszystko, co musimy wiedzieć o wariancjach, to dwie rzeczy:V
Wariancja jest skalar wartościach funkcji z własności, że P ( x ) = a 2 Q ( X ) dla wszystkich wektorów X .QQ(aX)=a2Q(X)X.
Wariancja nie jest generowana.
Drugi wymaga wyjaśnienia. określa „iloczyn punktowy”, który jest symetryczną dwuliniową formą podaną przezQ
X⋅Y=14(Q(X+Y)−Q(X−Y)).
(Jest to oczywiście nic innego niż kowariancji zmiennych i Y . ) Wektorów X i Y są prostopadłe , gdy ich iloczyn skalarny wynosi 0. ortogonalne dopełnienie dowolnego zbioru wektorów ⊂ V składa się z wszystkich wektorów ortogonalnych do każdego elementu z A , napisaneXY.XY0.A⊂VA,
A0={v∈V∣a.v=0 for all v∈V}.
Jest to wyraźnie przestrzeń wektorowa. Gdy , Q nie jest generowany.V0={0}Q
Pozwólcie mi udowodnić, że wariancja rzeczywiście nie jest generowana, nawet jeśli może wydawać się oczywista. Załóżmy, że jest niezerowym elementem V 0 . Oznacza to, że X ⋅ Y = 0 dla wszystkich Y ∈ V ; równoważnieXV0.X⋅Y=0Y∈V;
Q(X+Y)=Q(X−Y)
dla wszystkich wektorów Biorąc YY. dajeY=X
4Q(X)=Q(2X)=Q(X+X)=Q(X−X)=Q(0)=0
a zatem Wiemy jednak (być może przy użyciu nierówności Czebyszewa), że jedyne zmienne losowe o zerowej wariancji są prawie na pewno stałe, co identyfikuje je z wektorem zerowym w V , QED.Q(X)=0.V,
Interpretacja pytań
Wracając do pytań, w poprzednim zapisie macierz kowariancji zmiennych losowych jest po prostu regularną tablicą wszystkich ich produktów kropkowych,
T=(Xi⋅Xj).
There is a good way to think about T: it defines a linear transformation on Rn in the usual way, by sending any vector x=(x1,…,xn)∈Rn into the vector T(x)=y=(y1,…,xn) whose ith component is given by the matrix multiplication rule
yi=∑j=1n(Xi⋅Xj)xj.
The kernel of this linear transformation is the subspace it sends to zero:
Ker(T)={x∈Rn∣T(x)=0}.
The foregoing equation implies that when x∈Ker(T), for every i
0=yi=∑j=1n(Xi⋅Xj)xj=Xi⋅(∑jxjXj).
Since this is true for every i, it holds for all vectors spanned by the Xi: namely, V itself. Consequently, when x∈Ker(T), the vector given by ∑jxjXj lies in V0. Because the variance is nondegenerate, this means ∑jxjXj=0. That is, x describes a linear dependency among the n original random variables.
You can readily check that this chain of reasoning is reversible:
Linear dependencies among the Xj as vectors are in one-to-one correspondence with elements of the kernel of T.
(Remember, this statement still considers the Xj as defined up to a constant shift in location--that is, as elements of L2(Ω,P)/R--rather than as just random variables.)
Finally, by definition, an eigenvalue of T is any scalar λ for which there exists a nonzero vector x with T(x)=λx. When λ=0 is an eigenvalue, the space of associated eigenvectors is (obviously) the kernel of T.
Summary
We have arrived at the answer to the questions: the set of linear dependencies of the random variables, qua elements of L2(Ω,P)/R, corresponds one-to-one with the kernel of their covariance matrix T. This is so because the variance is a nondegenerate quadratic form. The kernel also is the eigenspace associated with the zero eigenvalue (or just the zero subspace when there is no zero eigenvalue).
Reference
I have largely adopted the notation and some of the language of Chapter IV in
Jean-Pierre Serre, A Course In Arithmetic. Springer-Verlag 1973.