Dlaczego używamy reszt do testowania założeń dotyczących błędów regresji?


10

Załóżmy, że mamy model .Yi=β0+β1Xi1+β2Xi2++βkXik+ϵi

Regresja ma wiele założeń, na przykład, że błędy powinny być normalnie rozłożone ze średnią zerową i stałą wariancją. Nauczono mnie sprawdzać te założenia przy użyciu normalnego wykresu QQ w celu przetestowania normalności reszt oraz wykresu reszt względem dopasowanego, aby sprawdzić, czy reszty różnią się wokół zera ze stałą wariancją.ϵiei=YiY^i

Jednak wszystkie te testy dotyczą reszt, a nie błędów.

Z tego, co rozumiem, błędy są definiowane jako odchylenie każdej obserwacji od ich „prawdziwej” wartości średniej. Możemy więc napisać . Błędy te nie mogą być przez nas zaobserwowane. *ϵi=YiE[Yi]

Moje pytanie brzmi: jak dobrą robotę robią reszta w naśladowaniu błędów?

Jeśli założenia wydają się być spełnione w odniesieniu do reszt, czy to oznacza, że ​​są one również spełnione w przypadku błędów? Czy istnieją inne (lepsze) sposoby testowania założeń, takie jak dopasowanie modelu do testowego zestawu danych i uzyskanie z niego pozostałości?


* Co więcej, czy nie wymaga to poprawnego określenia modelu ? Oznacza to, że odpowiedź naprawdę ma związek z predyktorami itd. W sposób określony przez model.X1,X2,

Jeśli brakuje niektórych predyktorów (powiedzmy ), to oczekiwanie nie byłoby nawet prawdziwym środkiem, a dalsza analiza na niewłaściwym modelu wydaje się bezcelowa.Xk+1 to XpE[Yi]=β0+β1Xi1+β2Xi2++βkXik

Jak sprawdzamy, czy model jest poprawny?

Odpowiedzi:


9

Resztki są naszymi szacunkami warunków błędu

Krótka odpowiedź na to pytanie jest stosunkowo prosta: założenia modelu regresji są założeniami dotyczącymi zachowania warunków błędu, a reszty są naszymi szacunkami warunków błędu. I tak też , badanie zachowania zaobserwowanych reszt mówi nam, czy założenia dotyczące warunków błędu są wiarygodne.

Aby bardziej szczegółowo zrozumieć tę ogólną linię rozumowania, pomocne jest szczegółowe zbadanie zachowania reszt w standardowym modelu regresji. W ramach standardowej wielokrotnej regresji liniowej z niezależnymi terminami normalnego błędu homoskedastycznego rozkład wektora resztkowego jest znany, co pozwala przetestować podstawowe założenia dystrybucyjne w modelu regresji. Podstawową ideą jest ustalenie rozkładu wektora resztkowego przy założeniach regresji, a następnie sprawdzenie, czy wartości resztkowe prawdopodobnie odpowiadają temu rozkładowi teoretycznemu. Odchylenia od teoretycznego rozkładu resztkowego pokazują, że założony rozkład warunków błędu jest pod pewnymi względami błędny.

Jeśli użyjesz podstawowego rozkładu błędów dla standardowego modelu regresji i użyjesz estymacji OLS dla współczynników, wówczas można pokazać rozkład reszt wielowymiarowy rozkład normalny:ϵiIID N(0,σ2)

r=(Ih)ϵN(0,σ2(Ih)),

gdzie jest macierzą kapelusza dla regresji. Wektor resztkowy naśladuje wektor błędu, ale macierz wariancji ma dodatkowy termin multiplikatywny . Aby przetestować założenia regresji, korzystamy ze studentizowanych reszt, które mają marginalny rozkład T:h=x(xTx)1xTIh

siriσ^Ext(1li)T(dfRes1).

(Ta formuła dotyczy reszt studentizowanych zewnętrznie, gdzie estymator wariancji wyklucza rozważaną zmienną. Wartości są wartościami dźwigni, które są wartościami diagonalnymi w macierzy kapelusza . Uczniowie reszt nie są niezależne, ale jeśli jest duże, są one zbliżone do niezależnych. Oznacza to, że rozkład krańcowy jest prostym znanym rozkładem, ale rozkład połączeń jest skomplikowany.) Teraz, jeśli limit istnieje, to można wykazać, że estymatory współczynników są spójnymi estymatorami prawdziwych współczynników regresji, a reszty są spójnymi estymatorami warunki prawdziwego błędu.li=hi,inlimn(xTx)/n=Δ

Zasadniczo oznacza to, że testujesz podstawowe założenia dystrybucyjne pod kątem błędów, porównując badane reszty z rozkładem T. Każda z podstawowych właściwości rozkładu błędów (liniowość, homoskedastyczność, błędy nieskorelowane, normalność) może być testowana przy użyciu analogicznych właściwości rozkładu badanych reszt. Jeśli model jest poprawnie określony, to dla dużych reszty powinny być zbliżone do warunków prawdziwego błędu i mieć podobną postać dystrybucyjną.n

Pominięcie zmiennej objaśniającej w modelu regresji prowadzi do pominięcia zmienności odchylenia w estymatorach współczynników, co wpływa na rozkład resztkowy. Pominięta zmienna wpływa zarówno na średnią, jak i wariancję wektora resztkowego. Jeśli pominięte terminy w regresji to wówczas pozostały wektor staje się . Jeśli wektory danych w pominiętej macierzy są wektorami normalnymi IID i niezależnymi od warunków błędu, wówczasZδr=(Ih)(Zδ+ϵ)ZZδ+ϵN(μ1,σ2I) tak że rozkład resztkowy staje się:

r=(Ih)(Zδ+ϵ)N(μ(Ih)1,σ2(Ih)).

Jeśli w modelu znajduje się już termin przechwytujący (tj. Jeśli wektor jednostkowy znajduje się w macierzy projektu), to1(Ih)1=0, co oznacza, że ​​zachowana jest standardowa forma dystrybucji reszt. Jeśli w modelu nie ma wyrażenia przechwytującego, wówczas pominięta zmienna może dawać niezerową średnią dla reszt. Alternatywnie, jeśli pominięta zmienna nie jest normalna IID, może to prowadzić do innych odchyleń od standardowego rozkładu resztkowego. W tym ostatnim przypadku jest mało prawdopodobne, aby testy rezydualne wykryły cokolwiek wynikającego z obecności pominiętej zmiennej; zwykle nie jest możliwe ustalenie, czy odchylenia od teoretycznego rozkładu resztkowego występują w wyniku pominiętej zmiennej, czy tylko z powodu złej relacji z włączonymi zmiennymi (i prawdopodobnie są to w każdym przypadku to samo).


1
Dziękujemy za kompleksową odpowiedź. Czy mogę zapytać, skąd masz ? Wydaje mi się, żer=(Ih)ϵr=YY^=(Ih)Y
mai

1
Ponieważ masz więc . hx=x(Ih)x=0r=(Ih)Y=(Ih)(xβ+ϵ)=(Ih)ϵ
Ben - Przywróć Monikę

-4

Zwykle terminy reszty i błędy oznaczają to samo. Jeśli twój model nie ma predyktorów, E (Y) jest rzeczywiście średnią Y. W predyktorach (jak w twoim modelu), E (Y) jest wartością Y przewidywaną z każdego X. Tak więc reszty są różnicą między każdym zaobserwowanym i przewidywał Y.


3
„Zwykle terminy resztki i błędy oznaczają to samo”. Nie sądzę, że to prawda - o ile rozumiem, reszty mierzą różnicę między wartością obserwowaną a wartością przewidywaną, podczas gdy błędy mierzą różnicę między wartością obserwowaną a prawdziwą wartością średnią.
mai

1
Ściśle mówiąc błędy i reszty nie są synonimami. Pierwsze to zmienne losowe, drugie to realizacje.
Richard Hardy,
Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.