Tutaj jestem na cienkim lodzie, ale pozwólcie, że spróbuję: mam wrażenie (proszę o komentarz!), Że główną różnicą między statystyką a ekonometrią jest to, że w statystykach zwykle uważamy regresory za naprawione, stąd macierz projektowania terminologii , która oczywiście pochodzi projektowanie eksperymentów, w których jest przypuszczenie, że my najpierw wybiera , a następnie ustalenia zmiennych objaśniających.
Ale w przypadku większości zestawów danych i większości sytuacji jest to złe dopasowanie. Naprawdę obserwujemy zmienne objaśniające iw tym sensie stoją one na tym samym poziomie, co zmienne odpowiedzi, oba są określane przez jakiś losowy proces poza naszą kontrolą. Biorąc pod uwagęxjako „naprawione”, postanawiamy nie brać pod uwagę wielu problemów, które mogą powodować.
Z drugiej strony, uznając regresory za stochastyczne, jak to zwykle robią ekonometrycy, otwieramy możliwość modelowania, które próbuje rozważyć takie problemy. Krótka lista problemów, które moglibyśmy następnie rozważyć i włączyć do modelowania, to:
- błędy pomiarowe w regresorach
- korelacje między regresorami a terminami błędów
- opóźniona odpowiedź jako regresor
- ...
Prawdopodobnie należy to robić znacznie częściej niż dzisiaj?
EDIT
Spróbuję sformułować argument za uzależnieniem od regresorów w nieco bardziej formalny sposób. Pozwolić( Y, X) być losowym wektorem, a zainteresowanie polega na regresji Y na X, gdzie regresja oznacza warunkowe oczekiwanie Y na X. Przy założeniach wielonormalnych będzie to funkcja liniowa, ale nasze argumenty nie zależą od tego. Zaczynamy od faktorowania gęstości złącza w zwykły sposób
fa( y, x ) = f( y∣ x ) f( x )
ale te funkcje nie są znane, dlatego używamy sparametryzowanego modelu
fa( y, x ; θ , ψ ) =faθ( y∣ x )faψ( x )
gdzie θ parametryzuje rozkład warunkowy i ψ rozkład krańcowy X. W normalnym modelu liniowym możemy miećθ = ( β,σ2))ale nie jest to zakładane. Pełna przestrzeń parametrów( θ , ψ ) jest Θ × Ψ, produkt kartezjański i te dwa parametry nie mają ze sobą wspólnego.
Można to najpierw zinterpretować jako faktoryzację eksperymentu statystycznego (lub procesu generowania danych, MZD) X jest generowany zgodnie z faψ( x )i jako drugi krok Y jest generowany zgodnie z gęstością warunkową faθ( y∣ X= x ). Pamiętaj, że pierwszy krok nie wykorzystuje żadnej wiedzy na tematθ, który wchodzi dopiero w drugim etapie. StatystykaX jest pomocniczy dla θ, patrz https://en.wikipedia.org/wiki/Ancillary_statistic .
Jednak w zależności od wyników pierwszego kroku drugi krok może być mniej lub bardziej informacyjny θ. Jeśli rozkład podany przezfaψ( x ) mają bardzo niską wariancję, powiedzmy, zaobserwowaną xzostaną skoncentrowane w małym regionie, więc trudniej będzie je oszacować θ. Tak więc pierwsza część tego dwuetapowego eksperymentu określa precyzję, z jakąθmożna oszacować. Dlatego naturalne jest warunkowanieX= xwnioskowanie na temat parametrów regresji. To jest argument warunkowości, a powyższy zarys wyjaśnia jego założenia.
W zaprojektowanych eksperymentach jego założenie przeważnie się utrzyma, często bez danych obserwacyjnych. Niektóre przykłady problemów to: regresja z opóźnionymi odpowiedziami jako predyktorami. Uzależnienie od predyktorów w tym przypadku będzie również zależeć od odpowiedzi! (Dodam więcej przykładów).
Jedną książką, która szczegółowo omawia te problemy, są rodziny informacji i wykładnicze: w teorii statystycznej O. E. Barndorffa-Nielsena. Patrz zwłaszcza rozdział 4. Autor twierdzi, że logika separacji w tej sytuacji jest jednak rzadko wyjaśniana, ale podaje następujące odniesienia: RA Fisher (1956) Metody statystyczne i wnioskowanie naukowe § 4.3i Sverdrup (1966) Obecny stan teorii decyzji i teorii Neymana-Pearsona .