Jeśli użyłeś zwrotów dziennika, to popełniłeś nieznaczny błąd promowania, ale jeśli użyłeś wartości przyszłej podzielonej przez wartość bieżącą, twoje prawdopodobieństwo jest błędne. W każdym razie twoje prawdopodobieństwo jest błędne. Wystarczająco źle jest mieć znaczenie.
Weź pod uwagę, że statystyka to dowolna funkcja danych. Zwroty nie są danymi, są transformacjami danych. Są wartością przyszłą podzieloną przez wartość bieżącą. Ceny są danymi. Ceny muszą mieć funkcję dystrybucji, ale funkcja dystrybucji zwrotów musi zależeć wyłącznie od charakteru cen.
ptpt + 1
pt + 1pt- 1.
1πσσ2)+ ( y- β1x1- β2)x2)⋯ - βnxn- α )2).
OLS wymusza najlepsze dopasowanie do obserwowanych danych, nawet jeśli jest to niewłaściwe rozwiązanie. Metody bayesowskie próbują znaleźć funkcję generującą dane poprzez prawdopodobieństwo. Prawdopodobieństwo było błędne, więc nie mogło go znaleźć.
Mam na ten temat artykuł, jeśli potrzebujesz dodatkowych informacji.
EDYCJA
Myślę, że źle zrozumiałeś. Gdyby przekonwertować prawdopodobieństwo na funkcję gęstości i przyjąć oczekiwanie, okazałoby się, że nie ma ona żadnej. Według dowodu Augustina Cauchy'ego z 1852 r., A może 1851 r., Każda forma najmniejszych kwadratów jest całkowicie nieprecyzyjna. Zawsze zawiedzie. Nie chodzi o to, że należy stosować standardową regresję, ponieważ Bayesian jest wrażliwy na prawdopodobieństwo, chodzi o to, że Bayes jest jedynym dostępnym rozwiązaniem, które jest dopuszczalne, z pewnymi wyjątkami w niektórych nietypowych przypadkach specjalnych.
Wykonując testy empiryczne na ten temat i zanim przeczytałem wystarczająco dużo matematyki, naiwnie pomyślałem, że rozwiązanie Bayesian i Frequentist powinny się zgadzać. Istnieje w przybliżeniu twierdzenie, że gdy próbka stanie się wystarczająco duża, oba się zbiegną. Do przetestowania wykorzystałem wszystkie transakcje na koniec dnia we wszechświecie CRSP od 1925-2013. To nie mówi tego twierdzenia. Nie zrozumiałem zasad.
Próbowałem również problem w dziennikach i nadal nie pasuje. Więc coś sobie uświadomiłem, wszystkie rozkłady są kształtami, więc skonstruowałem rozwiązanie geometryczne, aby ustalić, które rozwiązanie jest prawidłowe. Traktowałem to jako problem z czystą geometrią, aby ustalić, która odpowiedź algebraiczna pasuje do danych.
Bayesian pasował do siebie. To poprowadziło mnie bardzo matematyczną ścieżką, ponieważ nie mogłem zrozumieć, dlaczego bezstronny estymator tak się mylił. Dla przypomnienia, przy użyciu zdezagregowanych zwrotów w latach 1925–2013 i usunięciu spółek-skorup, funduszy zamkniętych itp., Rozbieżność między centrum lokalizacji wynosi 2%, a miara ryzyka jest zaniżona o 4% dla rocznych zwrotów . Ta rozbieżność dotyczy transformacji logów, ale z innego powodu. Może być inaczej w przypadku poszczególnych indeksów lub podzbiorów danych.
Przyczyna rozbieżności jest podwójna. Pierwszym z nich jest brak odpowiednich statystyk w rozkładach. W przypadku niektórych rodzajów problemów nie ma to znaczenia. Jednak dla celów projekcyjnych, takich jak przewidywanie lub alokacja, mają one duże znaczenie. Drugim powodem jest to, że obiektywny estymator jest zawsze wersją średniej, ale rozkład nie ma żadnej średniej.
Powyższa gęstość nie jest członkiem wykładniczej rodziny, tak jak rozkład normalny lub gamma. Według twierdzenia Pitmana-Koopmana-Darmois nie ma wystarczającej statystyki punktowej dla parametrów. Oznacza to, że każda próba utworzenia estymatora punktowego musi wyrzucić informacje. Nie stanowi to problemu dla rozwiązań bayesowskich, ponieważ tylna jest całą gęstością, a jeśli potrzebowałeś oszacowania punktowego, możesz znaleźć gęstość predykcyjną i zminimalizować nad nią funkcję kosztu, aby zredukować ją do jednego punktu. Prawdopodobieństwo Bayesa jest zawsze minimalnie wystarczające.
Estymator bezstronny minimalnej wariancji dla powyższej funkcji polega na zachowaniu środkowego 24,6% danych, znalezieniu jego przyciętej średniej i odrzuceniu reszty danych. Oznacza to, że ponad 75% danych jest usuwanych, a informacje tracone. Tylko uwaga, może to być 24,8%, ponieważ pracuję z pamięci. Artykuł Rothenberga można znaleźć pod adresem:
Rothenberg, TJ i FM Fisher oraz CB Tilanus, A Note on Estimation from a Cauchy Sample, Journal of American Statistics Association, 1964, tom 59 (306), s. 460-463
Druga kwestia była dla mnie zaskakująca. Dopóki nie przepracowałem geometrii, nie zdawałem sobie sprawy z przyczyny. Zwroty są dolne na poziomie -100%. To przesuwa medianę o 2%, a zakres międzykwartylowy jest przesunięty o 4%, chociaż połowa masy jest nadal w tych samych punktach. Połowa masy jest właściwą miarą skali, ale połowa szerokości nie. Gdyby nie było obcięcia, wówczas połowa szerokości i połowa masy byłyby w tych samych punktach. Podobnie mediana i tryb pozostałyby w tym samym punkcie. Mediana jest zwrotem dla średniego aktora lub przynajmniej średniego handlu. Jako takie, zawsze jest to lokalizacja MVUE i średnia dziennika.
Prawidłowe zrozumienie twierdzenia jest takie, że wszystkie estymatory bayesowskie są estymatorami dopuszczalnymi. Estymatory częstotliwości są dopuszczalnymi estymatorami, jeśli spełniony jest jeden z dwóch warunków. Pierwszym z nich jest to, że w każdej próbce rozwiązanie Frequentist i Bayesian jest identyczne. Drugi polega na tym, że jeśli ograniczające rozwiązanie metody bayesowskiej pasuje do rozwiązania Frequentist, to rozwiązanie Frequentist jest dopuszczalne.
Wszystkie dopuszczalne estymatory zbiegają się w tym samym rozwiązaniu, gdy wielkość próbki jest wystarczająco duża. Estymator Frequentist zakłada, że jego model jest prawdziwym modelem, a dane są losowe. Bayesian zakłada, że dane są prawdziwe, ale model jest losowy. Jeśli masz nieskończoną ilość danych, model subiektywny musi zbiegać się z rzeczywistością. Jeśli miałeś nieskończoną ilość danych, ale zły model, to model Frequentist zbiegnie się z rzeczywistością z prawdopodobieństwem zerowym.
W takim przypadku rozwiązanie bayesowskie, przy rozsądnych priorytetach, zawsze stochastycznie zdominuje każdy estymator częstościowy z powodu obcięcia i utraty informacji w celu utworzenia estymatora.
W logach funkcją prawdopodobieństwa jest hiperboliczny rozkład sieczny. Ma skończoną wariancję, ale nie ma kowariancji. Macierz kowariancji znaleziona za pomocą OLS jest artefaktem danych i nie wskazuje parametru, który istnieje w danych bazowych. Podobnie jak w przypadku formy surowej, nic w logu nie jest kowariancyjne, ale również nic nie jest niezależne. Zamiast tego istnieje o wiele bardziej złożona relacja, która narusza definicję kowariancji, ale w której mogą się odnosić.
Markowitz i Usman prawie znaleźli go w swoich pracach nad dystrybucjami, ale hiperboliczny rozkład siecznych nie należy do rodziny Pearsonów i źle zinterpretowali dane, nie zauważając, że zmieniając rozkład z danych surowych na dane dziennika, zmieniasz również jego właściwości statystyczne . Po prostu to odkryli, ale przeoczyli to, ponieważ nie mieli powodu, aby ich szukać i nie zdawali sobie sprawy z niezamierzonych konsekwencji używania dzienników.
Nie mam cytowanego przeze mnie Markowitza i Usmana, ale wykonali jedną z niewielu bardzo dobrych prac przy szacowaniu rozkładu, który tam jest.
W każdym razie nie używam JAGS. Nie mam pojęcia jak to zrobić. Całą moją pracę MCMC koduję ręcznie.
Mam artykuł, który jest o wiele bardziej kompletny i dokładny na ten temat pod adresem:
Harris, DE (2017) The Distribution of Returns. Journal of Mathematical Finance, 7, 769-804.
Zapewni to metodę konstruowania wypłat dla dowolnej klasy aktywów lub pasywów, również wskaźników księgowych.
Byłem zaniepokojony, ale widziałem, że źle zrozumiałeś związek między Bayes a metodami Pearsona-Neymana. Miałeś je odwrócone. Bayes zawsze działa, ale jesteś uwięziony z wcześniejszą gęstością, która zakłóci twoje rozwiązanie. Przy odpowiednim wcześniejszym gwarantowaniu masz uprzedzony estymator i dla tego rodzaju funkcji prawdopodobieństwa, uważam, że musisz użyć właściwego przed zagwarantowaniem integralności jedności. Metody często stosowane są często. Są obiektywne, ale mogą nie być ważne.