Istnieją pewne różnice terminologiczne, w których to samo nazywa się różnymi nazwami w różnych dyscyplinach:
- Dane podłużne w biostatystyce to powtarzane obserwacje tych samych osobników = dane panelowe w ekonometrii.
- Model binarnej zmiennej zależnej, w którym prawdopodobieństwo 1 jest modelowane jako nazywa się modelem logitowym w ekonometrii, a modelem logistycznym w biostatystyce. Biostatystycy mają tendencję do pracy z regresją logistyczną pod względem ilorazów szans, ponieważ ich są często binarne, więc iloraz szans reprezentuje względne częstotliwości wyniku zainteresowania w dwóch grupach w populacji. Jest to tak powszechna interpretacja, że często zobaczysz zmienną ciągłą przekształconą w dwie kategorie (niskie i wysokie ciśnienie krwi), aby ułatwić tę interpretację.x1/(1+exp[−x′β])x
- „Równania szacunkowe” statystyków to „warunki chwilowe” ekonometryczne. Statystyków -estimates są Ekonometrycy ekstremum estymatory.M
Istnieją różnice terminologiczne, w których ten sam termin oznacza różne rzeczy w różnych dyscyplinach:
- Naprawiono efekty dla w równaniu regresji dla statystyków ANOVA i dla estymatora „wewnątrz” dla ekonometrów.x′β
- Solidne wnioskowanie oznacza dla ekonomistów skorygowane błędy heteroskedastyczne (z rozszerzeniami standardowych błędów klastra i / lub standardowe błędy skorygowane autokorelacją) oraz metody odporne na dalekie odbiegania statystyki.
- Wydaje się, że ekonomiści mają absurdalny pomysł, że próbki warstwowe to te, w których prawdopodobieństwa wyboru różnią się między obserwacjami. Należy je nazwać nierównymi próbkami prawdopodobieństwa. Próbki uwarstwione to te, w których populacja jest podzielona na wcześniej określone grupy zgodnie z cechami znanymi przed rozpoczęciem pobierania próbek.
- „Eksploracja danych” ekonometrycznych (przynajmniej w literaturze z lat 80.) oznaczała wiele testów i związanych z nimi pułapek, które zostały cudownie wyjaśnione w książce Harrella . Procedury eksploracji danych przez informatyków (i statystów) są nieparametrycznymi metodami znajdowania wzorców w danych, znanymi również jako uczenie statystyczne .
Uważam, że jest to wyjątkowy wkład ekonometrii
- Sposoby radzenia sobie z endogenicznością i słabo określonymi modelami regresji, uznając, jak mpiktas wyjaśnił w innej odpowiedzi , że (i) zmienne objaśniające mogą same być losowe (a zatem skorelowane z błędami regresji powodującymi błąd w szacunkach parametrów), (ii) modele mogą cierpieć z powodu pominiętych zmiennych (które następnie stają się częścią składnika błędu), (iii) może występować nieobserwowana heterogeniczność reakcji czynników ekonomicznych na bodźce, co komplikuje standardowe modele regresji. Angrist & Pischke to wspaniały przegląd tych zagadnień, a statystycy dowiedzą się dużo o tym, jak z nich przeprowadzić analizę regresji. Statystycy powinni przynajmniej uczyć się i rozumieć regresję zmiennych instrumentalnych.
- Mówiąc bardziej ogólnie, ekonomiści chcą poczynić jak najmniej założeń dotyczących swoich modeli, aby upewnić się, że ich ustalenia nie zależą od czegoś tak absurdalnego, jak normalność wielowymiarowa. Właśnie dlatego GMM jest niezwykle popularny wśród ekonomistów i nigdy nie nadrobił zaległości w statystykach (mimo że Ferguson pod koniec lat 60. określił go jako minimum ). Właśnie dlatego przyjęcie prawdopodobieństwa empirycznego wzrosło wykładniczo w ekonometrii, z niewielkim spadkiem w statystykach. Właśnie dlatego ekonomiści przeprowadzają regresję z „solidnymi” standardowymi błędami, a statystycy z domyślnymi standardowymi błędami OLS .s 2 ( X ′ X ) - 1χ2s2(X′X)−1
- W dziedzinie czasu było wiele pracy z regularnie rozmieszczonymi procesami - w ten sposób gromadzone są dane makroekonomiczne. Unikalny wkład obejmuje zintegrowane i zintegrowane procesy oraz autoregresyjne metody warunkowej heteroskedastyczności ((G) ARCH). Będąc ogólnie osobą mikro, jestem mniej zaznajomiony z nimi.
Ogólnie rzecz biorąc, ekonomiści szukają silnej interpretacji współczynników w swoich modelach. Statystycy przyjmowaliby model logistyczny jako sposób na uzyskanie prawdopodobieństwa wyniku pozytywnego, często jako proste urządzenie predykcyjne, i mogliby również zauważyć interpretację GLM z ładnymi właściwościami wykładniczymi, które posiada, a także powiązania z analizą dyskryminacyjną. Ekonomiści zastanowiliby się nad użyteczną interpretacją modelu logit i obawiali się, że w tym modelu zidentyfikowano tylko i że heteroskedastyczność może go zrzucić. (Statystycy będą się zastanawiać, coσβ/σσ są oczywiście ekonomiści.) Oczywiście użyteczność, która jest liniowa w swoich danych wejściowych, jest bardzo zabawna z punktu widzenia Microeconomics 101, chociaż pewne uogólnienia funkcji częściowo wklęsłych są prawdopodobnie wykonywane w Mas-Collel.
Ekonomiści zwykle tęsknią, ale IMHO na tym skorzystają, to aspekty analizy wielowymiarowej (w tym utajone modele zmiennych jako sposób radzenia sobie z błędami pomiaru i wieloma proxy… statystycy też nie są świadomi tych modeli) , diagnostyka regresji (wszystkie te odległości Cooka,Cp, DFBETA itp.), Analiza brakujących danych (częściowa identyfikacja Manskiego jest z pewnością fantazyjna, ale bardziej rozpowszechniony jest podział głównego nurtu MCAR / MAR / NMAR i wielokrotna imputacja) oraz statystyki ankiet. Ekonometria czerpała wiele innych informacji ze statystyk głównego nurtu i albo przyjęła je jako standardową metodologię, albo przyjęła jako krótkoterminowe: modele ARMA z lat 60. XX wieku są prawdopodobnie lepiej znane w ekonometrii niż w statystyce, ponieważ niektóre programy magisterskie w statystykach może obecnie nie oferować kursu szeregów czasowych; estymatory skurczu / regresja kalenicowa z lat siedemdziesiątych przyszły i zniknęły; bootstrap z lat 80. to reakcja na kolana w każdej skomplikowanej sytuacji, chociaż ekonomiści muszą być bardziej świadomi ograniczeń bootstrapu; prawdopodobieństwo empiryczne lat dziewięćdziesiątych przyniosło więcej rozwoju metodologii od teoretycznych ekonometrów niż od teoretycznych statystyk; obliczeniowe metody bayesowskie z 2000 roku są rozrywką w ekonometrii, ale mam wrażenie, że są one zbyt parametryczne, zbyt mocno oparte na modelach, aby były zgodne z paradygmatem niezawodności, o którym wspominałem wcześniej. To, czy ekonomiści znajdą jakiekolwiek zastosowanie nauki statystycznej / bioinformatyki lub rzeczy czasoprzestrzennych, które jest niezwykle popularne we współczesnych statystykach, jest otwarte.