Pytania otagowane jako prior

W statystyce bayesowskiej wcześniejszy rozkład formalizuje informacje lub wiedzę (często subiektywną), dostępną przed obejrzeniem próbki, w postaci rozkładu prawdopodobieństwa. Rozkład z dużym rozkładem jest stosowany, gdy niewiele wiadomo na temat parametru (ów), podczas gdy wąski wcześniejszy rozkład reprezentuje większy stopień informacji.

4
Jak statystyki bayesowskie radzą sobie z brakiem priorytetów?
To pytanie zostało zainspirowane dwiema niedawnymi interakcjami, które miałem, jedną tutaj w CV , drugą w ekonomics.se. Tam miałem wysłana odpowiedź do znanego „Koperta Paradox” (Pamiętaj, a nie jak w „poprawnej odpowiedzi”, ale jako odpowiedź płynącą z określonych założeń o strukturze sytuacji). Po pewnym czasie użytkownik opublikował krytyczny komentarz, a …

2
Jakie wcześniejsze rozkłady mogłyby / powinny być zastosowane dla wariancji w hierarchicznym modelu bayezjańskim, gdy interesująca jest średnia wariancja?
W szeroko cytowanym artykule Wcześniejsze rozkłady parametrów wariancji w modelach hierarchicznych (916 cytowanie do tej pory na Google Scholar) Gelman sugeruje, że dobre wcześniejsze nieinformacyjne wcześniejsze rozkłady dla wariancji w hierarchicznym modelu bayesowskim to rozkład równomierny i rozkład połowy t. Jeśli dobrze rozumiem, działa to dobrze, gdy parametr lokalizacji (np. …

2
Regresja grzbietowa - interpretacja bayesowska
Słyszałem, że regresję grzbietu można wyprowadzić jako średnią rozkładu z tyłu, jeśli uprzednio zostanie odpowiednio wybrany. Czy intuicja, że ​​ograniczenia określone przez współczynniki regresji przez wcześniejsze (np. Standardowe rozkłady normalne około 0) są identyczne / zastępuje karę ustawioną na kwadrat wielkości współczynników? Czy przeor musi mieć charakter gaussowski, aby zachować …

3
Dlaczego nikt nie korzysta z bayesowskiego wielomianowego klasyfikatora Naive Bayes?
Tak więc w (nienadzorowanym) modelowaniu tekstu Latent Dirichlet Allocation (LDA) to bayesowska wersja probabilistycznej latentnej analizy semantycznej (PLSA). Zasadniczo LDA = PLSA + Dirichlet przed jego parametrami. Rozumiem, że LDA jest teraz algorytmem referencyjnym i jest zaimplementowany w różnych pakietach, podczas gdy PLSA nie powinna już być używana. Ale w …

1
Jaka intuicja kryje się za wymiennymi próbkami pod hipotezą zerową?
Testy permutacyjne (zwane również testem randomizacji, testem ponownej randomizacji lub testem dokładnym) są bardzo przydatne i przydają się, gdy t-testnie jest spełnione założenie o rozkładzie normalnym wymagane na przykład i gdy transformacja wartości przez ranking test nieparametryczny, Mann-Whitney-U-testktóry prowadziłby do utraty większej ilości informacji. Jednak nie należy zapominać o jednym …
15 hypothesis-testing  permutation-test  exchangeability  r  statistical-significance  loess  data-visualization  normal-distribution  pdf  ggplot2  kernel-smoothing  probability  self-study  expected-value  normal-distribution  prior  correlation  time-series  regression  heteroscedasticity  estimation  estimators  fisher-information  data-visualization  repeated-measures  binary-data  panel-data  mathematical-statistics  coefficient-of-variation  normal-distribution  order-statistics  regression  machine-learning  one-class  probability  estimators  forecasting  prediction  validation  finance  measurement-error  variance  mean  spatial  monte-carlo  data-visualization  boxplot  sampling  uniform  chi-squared  goodness-of-fit  probability  mixture  theory  gaussian-mixture  regression  statistical-significance  p-value  bootstrap  regression  multicollinearity  correlation  r  poisson-distribution  survival  regression  categorical-data  ordinal-data  ordered-logit  regression  interaction  time-series  machine-learning  forecasting  cross-validation  binomial  multiple-comparisons  simulation  false-discovery-rate  r  clustering  frequency  wilcoxon-mann-whitney  wilcoxon-signed-rank  r  svm  t-test  missing-data  excel  r  numerical-integration  r  random-variable  lme4-nlme  mixed-model  weighted-regression  power-law  errors-in-variables  machine-learning  classification  entropy  information-theory  mutual-information 

2
Płaski, koniugatowy i hiper-priory. Czym oni są?
Obecnie czytam o Bayesian Methods in Computation Molecular Evolution autorstwa Yang. W rozdziale 5.2 mówi o priory, a konkretnie nieinformacyjne / płaskie / niejasne / rozproszone, sprzężone i hiper-priory. Może to wymagać uproszczenia, ale czy ktoś mógłby wyjaśnić po prostu różnicę między tego rodzaju priorytetami i jak to wpływa na …
15 bayesian  prior 

2
Parametry bez zdefiniowanych priorytetów w Stan
Właśnie zacząłem uczyć się używać Stana i rstan. Chyba że zawsze byłem zdezorientowany, jak działały JAGS / BŁĘDY, myślałem, że zawsze musisz zdefiniować jakiś wcześniejszy rozkład dla każdego parametru w modelu, z którego chcesz czerpać. Wygląda na to, że nie musisz tego robić w Stanie na podstawie jego dokumentacji. Oto …


1
Jeffreys przed wieloma parametrami
W niektórych przypadkach wcześniejszy Jeffreys dla pełnego modelu wielowymiarowego jest ogólnie uważany za nieodpowiedni, tak jest na przykład w przypadku: (gdzie , przy nieznanych i ), gdzie preferowany jest następujący przeor (do pełnego Jeffreys ): gdzie to wcześniejszy Jeffreys uzyskany przy zachowaniu stałej \ sigma (i podobnie dla p ( …

2
Robienie bayesowskiego przeora z częstego wyniku
Jak przejść do przekształcania częstego wyniku w przeora bayesowskiego? Rozważmy następujący dość ogólny scenariusz: w przeszłości przeprowadzono eksperyment i zmierzono wynik na pewnym parametrze . Analizy dokonano przy użyciu metodologii częstokrzyskiej. Przedział ufności dla ϕ podano w wynikach.ϕϕ\phiϕϕ\phi Przeprowadzam teraz nowy eksperyment, w którym chcę zmierzyć inne parametry, na przykład …


1
Kiedy powinienem się martwić paradoksem Jeffreysa-Lindleya w wyborze modelu Bayesa?
Rozważam dużą (ale skończoną) przestrzeń modeli o różnym stopniu złożoności, które eksploruję za pomocą RJMCMC . Wstęp na wektorze parametrów dla każdego modelu jest dość pouczający. W jakich przypadkach (jeśli w ogóle) powinienem się martwić paradoksem Jeffreysa-Lindleya faworyzującym prostsze modele, gdy jeden z bardziej złożonych modeli byłby bardziej odpowiedni? Czy …

3
Jeffreys Prior dla rozkładu normalnego z nieznaną średnią i wariancją
Czytam wcześniejsze rozkłady i wcześniej obliczyłem Jeffreysa dla próbki normalnie rozmieszczonych zmiennych losowych o nieznanej średniej i nieznanej wariancji. Zgodnie z moimi obliczeniami, dla Jeffreysa przedtem obowiązuje: Tutaj matrycą informacji Fishera.jap ( μ , σ2)) = de t ( I)-----√= de t ( 1 / σ2)001 / ( 2 σ4))------------------√= …

2
Dlaczego istnieją zalecenia, aby nie używać Jeffreysa lub priorów opartych na entropii dla samplerów MCMC?
Na swojej stronie wiki twórcy Stana stwierdzają: Niektóre zasady, których nie lubimy: niezmienność, Jeffreys, entropia Zamiast tego widzę wiele normalnych zaleceń dotyczących dystrybucji. Do tej pory korzystałem z metod bayesowskich, które nie polegały na próbkowaniu, i byłem zadowolony, że zrozumiałem, dlaczego był dobrym wyborem dla prawdopodobieństw dwumianowych.θ ∼ Beta ( …
12 bayesian  mcmc  prior  pymc  stan 

1
Dlaczego LKJcorr jest dobrym rozwiązaniem dla macierzy korelacji?
Czytam rozdział 13 „Przygody w kowariancji” w ( znakomitej ) książce „ Rethinking statystyczny” Richarda McElreath, w której przedstawia on następujący model hierarchiczny: ( Rjest macierzą korelacji) Autor wyjaśnia, że LKJcorrjest to słabo pouczający uprzedni, który działa jako uprzedni regularyzujący dla matrycy korelacji. Ale dlaczego tak jest? Jakie cechy LKJcorrrozkładu …

Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.