Dodanie i odjęcie daje
Musimy więc wykazać, że∑ n i = 1
∑i=1n(yi−y¯)2==∑i=1n(yi−y^i+y^i−y¯)2∑i=1n(yi−y^i)2+2∑i=1n(yi−y^i)(y^i−y¯)+∑i=1n(y^i−y¯)2
. Zapisu
n Σ i = 1 ( R I - Y I ) ( Y i - ˉ y ) = n Σ i = 1 ( R I - Y I ), Y i - ˂ y∑ni=1(yi−y^i)(y^i−y¯)=0
tak, (a) reszty
eI=Yi - R imusi być ortogonalny do wartości zamontowane,
Σ n i = 1 (yı - y I) r i=0, i (b) suma wartości dopasowanych potrzeby, aby była równa sumie zmienną zależną,
Σ n i = 1 yi∑i=1n(yi−y^i)(y^i−y¯)=∑i=1n(yi−y^i)y^i−y¯∑i=1n(yi−y^i)
ei=yi−y^i∑ni=1(yi−y^i)y^i=0 .
∑ni=1yi=∑ni=1y^i
Faktycznie, że (a) jest łatwiej wykazać w notacji macierzowej o ogólnym regresji wielokrotnej, której jednym przypadku zmiennej jest przypadkiem specjalnym:
W przypadku (b) pochodną funkcji kryterium OLS względem stałej (! Więc potrzebny do regresji to prawda), znany jako normalne równania , jest
∂SSR
e′Xβ^====(y−Xβ^)′Xβ^(y−X(X′X)−1X′y)′Xβ^y′(X−X(X′X)−1X′X)β^y′(X−X)β^=0
które można przekształcić do
ΣiYi=n α + β ΣIxI
po prawej stronie w równaniu oczywiście jest również
Σ n i = 1 Y ı, a
Y i= α∂SSR∂α^=−2∑i(yi−α^−β^xi)=0,
∑iyi=nα^+β^∑ixi
∑ni=1y^iy^i=α^+β^xi