Pokażę wynik dla dowolnej wielokrotnej regresji liniowej, niezależnie od tego, czy regresory są wielomianami czy nie. W rzeczywistości pokazuje nieco więcej niż to, o co prosiłeś, ponieważ pokazuje, że każda reszta LOOCV jest identyczna z odpowiednią resztą ważoną dźwignią z pełnej regresji, nie tylko że możesz uzyskać błąd LOOCV jak w (5.2) (tam mogą być inne sposoby, w jakie średnie się zgadzają, nawet jeśli nie każdy termin w średniej jest taki sam).Xt
Pozwól mi skorzystać z lekko dostosowanej notacji.
My najpierw pokazać, że
p
w którym β jest oszacowanie przy użyciu wszystkich danych i p (t)estymaty wychodząc zX(t), obserwacjit. NiechXtbyć zdefiniowana jako szereg wektora, tak że Y T=Xt β . U Tsą reszty.
β^−β^(t)=(u^t1−ht)(X′X)−1X′t,(A)
β^β^(t)X(t)tXty^t=Xtβ^u^t
Dowód wykorzystuje następujący wynik algebraiczny macierzy.
Niech będzie macierzą niesingularną, b wektorem, a λ skalarem. Gdyby
Abλ Następnie
(A+λbb′)-1
λ≠−1b′A−1b
(A+λbb′)−1=A−1−(λ1+λb′A−1b)A−1bb′A−1(B)
{A−1−(λ1+λb′A−1b)A−1bb′A−1}(A+λbb′)=I.
The following result is helpful to prove (A)
(X′(t)X(t))−1X′t=(11−ht)(X′X)−1X′t. (C)
Proof of (C): By (B) we have, using ∑Tt=1X′tXt=X′X,
(X′(t)X(t))−1=(X′X−X′tXt)−1=(X′X)−1+(X′X)−1X′tXt(X′X)−11−Xt(X′X)−1X′t.
So we find
(X′(t)X(t))−1X′t=(X′X)−1X′t+(X′X)−1X′t(Xt(X′X)−1X′t1−Xt(X′X)−1X′t)=(11−ht)(X′X)−1X′t.
The proof of (A) now follows from (C): As
X′Xβ^=X′y,
we have
(X′(t)X(t)+X′tXt)β^=X′(t)y(t)+X′tyt,
or
{Ik+(X′(t)X(t))−1X′tXt}β^=β^(t)+(X′(t)X(t))−1X′t(Xtβ^+u^t).
So,
β^=β^(t)+(X′(t)X(t))−1X′tu^t=β^(t)+(X′X)−1X′tu^t1−ht,
where the last equality follows from (C).
Now, note ht=Xt(X′X)−1X′t. Multiply through in (A) by Xt, add yt on both sides and rearrange to get, with u^(t) the residuals resulting from using β^(t) (yt−Xtβ^(t)),
u^(t)=u^t+(u^t1−ht)ht
or
u^(t)=u^t(1−ht)+u^tht1−ht=u^t1−ht