Obecnie pracuję nad wdrożeniem metody stosowanej w popularnym artykule zatytułowanym „I Just Ran Two Million Regressions”. Podstawową ideą jest to, że istnieją pewne przypadki, w których nie jest oczywiste, jakie elementy sterujące powinny być uwzględnione w modelu. Jedną z rzeczy, które możesz zrobić w takim przypadku, jest losowe sterowanie, uruchamianie milionów różnych regresji, a następnie sprawdzanie, jak zareagowała zmienna zainteresowania. Jeśli ogólnie ma ten sam znak we wszystkich specyfikacjach, możemy uznać go za bardziej odporny niż zmienna, której znak zawsze się zmienia.
Większość papieru jest bardzo przejrzysta. Jednak dokument waży wszystkie te różne regresje w następujący sposób: Zintegrowane prawdopodobieństwo danej specyfikacji jest dzielone przez sumę wszystkich zintegrowanych prawdopodobieństw dla wszystkich specyfikacji.
Problem, który mam, polega na tym, że nie jestem pewien, w jaki sposób zintegrowane prawdopodobieństwo odnosi się do regresji OLS, które chciałbym uruchomić (w Stata). Tematy Google, takie jak „prawdopodobieństwo zintegrowanej staty”, są ślepym zaułkiem, ponieważ ciągle napotykam na takie rzeczy, jak regresja logistyczna efektów mieszanych. Przyznaję, że te modele są zbyt skomplikowane, żebym mógł je pojąć.
Moja obecna praca polega na tym, że w literaturze są różne schematy ważenia, które rozumiem (w pewnym sensie). Na przykład możliwe jest ważenie każdej regresji na podstawie wskaźnika współczynnika wiarygodności. Istnieje nawet pakiet R, który używa lri jako odważników. Oczywiście chciałbym również wdrożyć wersję oryginalną.
Jakakolwiek rada?
Link do papieru: http://down.cenet.org.cn/upfile/34/2009112141315178.pdf