Prawdopodobnie myślisz o dwóch próbnych testach t ponieważ często jest to pierwsze miejsce, w którym pojawia się rozkład t . Ale tak naprawdę wszystko, co oznacza test t polega na tym, że rozkład odniesienia dla statystyki testu jest rozkładem t . Jeśli Z∼N(0,1) i S2∼χ2d z Z i S2niezależnych 2 , to
ZS2/d−−−−√∼td
z definicji. Piszę to, aby podkreślić, żerozkład
tjest tylko nazwą, która została nadana rozkładowi tego stosunku, ponieważ często się pojawia, a wszystko w tej formie będzie miało
t rozkład . W przypadku testu t dla dwóch próbek współczynnik ten pojawia się, ponieważ pod zerą różnica średnich jest zerową średnią Gaussa, a oszacowanie wariancji dla niezależnych Gaussian jest niezależne
χ2 (niezależność można wykazać za pomocą
twierdzenia Basu który wykorzystuje fakt, że standardowe oszacowanie wariancji w próbce Gaussa jest pomocnicze w stosunku do średniej populacji, podczas gdy średnia próby jest kompletna i wystarczająca dla tej samej ilości).
Z regresją liniową uzyskujemy w zasadzie to samo. W postaci β^∼N(β,σ2(XTX)−1) . Niech S2j=(XTX)−1jj i przyjmijmy, że predyktory X są nieprzypadkowe. Gdybyśmy wiedzieli, σ2 musielibyśmy
p j - 0
pod zerowymH0:βj=0,więc faktycznie mielibyśmy test Z. Ale gdy szacujemyσ2możemy skończyć zχ2zmiennej losowej, że zgodnie z naszymi założeniami normalności okazuje się być niezależne od naszej statystycznej p ja następnie otrzymujemytdystrybucję.
β^j−0σSj∼N(0,1)
H0:βj=0σ2χ2β^jt
Oto szczegóły: załóżmy . Niech H = X ( X T X ) - 1 X T będzie macierzą kapelusza, którą mamy
‖ e ‖ 2 = ‖ ( I - H ) y ‖ 2 = y T ( I - H ) y . H jest idempotentny, więc mamy naprawdę fajny wynik
y∼N(Xβ,σ2I)H=X(XTX)−1XT
∥e∥2=∥(I−H)y∥2=yT(I−H)y.
H
z parametrem
niecentralności δ = β T X T ( I - H ) X β = β T ( X T X - X T X ) β = 0 , więc w rzeczywistości jest to centralna
χ 2 z
n - pyT(I−H)y/σ2∼χ2n−p(δ)
δ=βTXT(I−H)Xβ=βT(XTX−XTX)β=0χ2n−p stopnie swobody (jest to szczególny przypadek
twierdzenia Cochrana ). Używam
p do oznaczenia liczby kolumn
, więc jeśli jedna kolumna
X daje punkt przecięcia, mielibyśmy
p - 1 predyktory nieprzechodzące. Niektórzy autorzy używają
p jako liczby predyktorów przechwytujących, więc czasami możesz zobaczyć coś takiego jak
n - p - 1 w stopniach swobody, ale to wszystko to samo.
XXp−1pn−p−1
Wynikiem tego jest to, że , więc σ 2 : = 1E(eTe/σ2)=n−pdziała świetnie jako estymatorσ2.σ^2:=1n−peTeσ2
Oznacza to, że
β j
to stosunek standardowego kwadratu Gaussa do chi kwadrat podzielony przez stopnie swobody. Aby to zakończyć, musimy wykazać się niezależnością i możemy użyć następującego wyniku:
β^jσ^Sj=β^jSjeTe/(n−p)−−−−−−−−−−√=β^jσSjeTeσ2(n−p)−−−−−−√
Wyniki: dla i macierzy i B w R l x K i R m x K odpowiednio Z i B Z są niezależnie wtedy i tylko wtedy, gdy Σ B , T = 0 (to wykonywanie 58 (b) w rozdziale 1 statystyk matematycznych Jun Shao ).Z∼Nk(μ,Σ)ABRl×kRm×kAZBZAΣBT=0
Mamy β = ( X, T, X ) - 1 X T r i e = ( I - H ) y , gdzie y ~ N ( X β , Ď 2 I ) . Oznacza to
( X T X ) - 1 X T ⋅ σ 2 I ⋅ ( I - H ) T = σ 2β^=(XTX)−1XTye=(I−H)yy∼N(Xβ,σ2I)
tak, beta ⊥e, i dlatego beta ⊥ e t e.
(XTX)−1XT⋅σ2I⋅(I−H)T=σ2((XTX)−1XT−(XTX)−1XTX(XTX)−1XT)=0
β^⊥eβ^⊥eTe
Skutek jest taki, teraz wiemy,
p j
w razie potrzeby (w wszystkie powyższe założenia).
β^jσ^Sj∼tn−p
C=(AB) be the (l+m)×k matrix formed by stacking A on top of B. Then
CZ=(AZBZ)∼N((AμBμ),CΣCT)
where
CΣCT=(AB)Σ(ATBT)=(AΣATBΣATAΣBTBΣBT).
CZ is a multivariate Gaussian and it is a well-known result that two components of a multivariate Gaussian are independent if and only if they are uncorrelated, so the condition
AΣBT=0 turns out to be exactly equivalent to the components
AZ and
BZ in
CZ being uncorrelated.
□