Pytania otagowane jako gibbs

Próbnik Gibbsa jest prostą formą symulacji Markov Chain Monte Carlo, szeroko stosowanej w statystykach bayesowskich, opartej na próbkowaniu z pełnych rozkładów warunkowych dla każdej zmiennej lub grupy zmiennych. Nazwa pochodzi od metody zastosowanej po raz pierwszy w modelowaniu obrazów Gibbsa przez Gemana i Gemana (1984).

4
OpenBugs vs. JAGS
Za chwilę wypróbuję środowisko w stylu BUGS do szacowania modeli bayesowskich. Czy są jakieś ważne zalety, które należy wziąć pod uwagę, wybierając pomiędzy OpenBugs lub JAGS? Czy jedna może zastąpić drugą w dającej się przewidzieć przyszłości? Będę używać wybranego Gibbsa Samplera z R. Nie mam jeszcze konkretnej aplikacji, ale raczej …
41 r  software  bugs  jags  gibbs 

1
Jaka jest różnica między próbkowaniem Metropolis Hastings, Gibbs, Znaczenie i odrzuceniem?
Próbowałem nauczyć się metod MCMC i natknąłem się na próbkowanie Metropolis Hastings, Gibbs, Ważność i Odrzucenie. Chociaż niektóre z tych różnic są oczywiste, tj. Jak Gibbs jest szczególnym przypadkiem Metropolis Hastings, gdy mamy pełne warunki warunkowe, inne są mniej oczywiste, na przykład gdy chcemy użyć MH w próbniku Gibbs itp. …

3
Dobre samouczki Gibbs i samouczki
Chcę się dowiedzieć, jak działa Gibbs Sampling i szukam dobrego papieru podstawowego do średnio zaawansowanego. Mam wykształcenie informatyczne i podstawową wiedzę statystyczną. Czy ktoś czytał wokół dobry materiał? gdzie się tego nauczyłeś? Dzięki
29 references  gibbs 

1
Jakie są dobrze znane ulepszenia w stosunku do podręcznikowych algorytmów MCMC, których ludzie używają do wnioskowania bayesowskiego?
Kiedy koduję symulację Monte Carlo dla jakiegoś problemu, a model jest dość prosty, używam bardzo prostego podręcznika Gibbs. Kiedy nie jest możliwe użycie próbkowania Gibbsa, koduję podręcznik Metropolis-Hastings, którego nauczyłem się wiele lat temu. Zastanawiam się nad wyborem rozkładu skoków lub jego parametrów. Wiem, że istnieją setki specjalistycznych metod, które …

2
Próbkowanie Gibbsa w porównaniu z ogólnym MH-MCMC
Właśnie czytałem trochę na temat próbkowania Gibbsa i algorytmu Metropolis Hastings i mam kilka pytań. Jak rozumiem, w przypadku próbkowania Gibbsa, jeśli mamy duży problem wielowymiarowy, próbkujemy z rozkładu warunkowego, tj. Próbkujemy jedną zmienną, utrzymując wszystkie pozostałe w stałym, podczas gdy w MH próbkujemy z pełnego wspólnego rozkładu. Jedną rzeczą, …

1
Kiedy należy użyć próbkowania Gibbsa zamiast Metropolis-Hastings?
Istnieją różne rodzaje algorytmów MCMC: Metropolis-Hastings Gibbs Próbkowanie pod kątem ważności / odrzucenia (powiązane). Dlaczego warto korzystać z próbkowania Gibbs zamiast Metropolis-Hastings? Podejrzewam, że zdarzają się przypadki, w których wnioskowanie jest łatwiejsze w przypadku próbkowania Gibbsa niż w przypadku Metropolis-Hastings, ale nie mam jasności co do szczegółów.

1
Czy algorytm Gibbs Sampling gwarantuje szczegółową równowagę?
Mam najwyższą władzę 1, że Gibbs Sampling jest szczególnym przypadkiem algorytmu Metropolis-Hastings do próbkowania Markov Chain Monte Carlo. Algorytm MH zawsze daje prawdopodobieństwo przejścia z właściwością równowagi szczegółowej; Spodziewam się, że Gibbs też powinien. Więc gdzie w poniższym prostym przypadku popełniłem błąd? Dla rozkładu docelowego π(x,y)π(x,y)\pi(x, y) na dwóch zmiennych …
17 mcmc  gibbs 

1
Stan
Przeglądałem dokumentację Stana, którą można pobrać stąd . Byłem szczególnie zainteresowany ich wdrożeniem diagnostyki Gelmana-Rubina. Oryginalny artykuł Gelman i Rubin (1992) definiuje potencjalny współczynnik redukcji skali (PSRF) w następujący sposób: Niech Xi,1,…,Xi,NXi,1,…,Xi,NX_{i,1}, \dots , X_{i,N} będą iii -tym łańcuchem Markowa, z którego pobrano próbkę, i niech będzie próbka z całych …

2
Skąd pochodzą pełne warunki warunkowe w próbkowaniu Gibbsa?
Algorytmy MCMC, takie jak próbkowanie Metropolis-Hastings i Gibbs, są sposobami próbkowania ze wspólnych rozkładów tylnych. Wydaje mi się, że rozumiem i potrafię dość łatwo wdrożyć pospieszanie metropolii - po prostu wybierasz punkty początkowe i „chodzisz po przestrzeni parametrów” losowo, kierując się gęstością a posteriori i gęstością propozycji. Próbkowanie Gibbsa wydaje …
15 bayesian  mcmc  gibbs 

1
Marginalna wiarygodność na podstawie danych wyjściowych Gibbsa
Odtwarzam od zera wyniki w sekcji 4.2.1 Marginalna wiarygodność na podstawie danych wyjściowych Gibbsa Siddhartha Chib Journal of the American Statistics Association, t. 90, nr 432. (grudzień 1995), s. 1313–1321. Jest to mieszanina modelu normalnego o znanej liczbie k≥1k≥1k\geq 1 składników. f(x∣w,μ,σ2)=∏i=1n∑j=1kN(xi∣μj,σ2j).(∗)f(x∣w,μ,σ2)=∏i=1n∑j=1kN(xi∣μj,σj2).(∗) f(x\mid w,\mu,\sigma^2) =\prod_{i=1}^n\sum_{j=1}^k \mathrm{N}(x_i\mid\mu_j,\sigma_j^2) \, . \qquad (*) …

1
Dlaczego redundantna średnia parametryzacja przyspiesza Gibbs MCMC?
W książce Gelman & Hill (2007) (Analiza danych przy użyciu regresji i modeli wielopoziomowych / hierarchicznych) autorzy twierdzą, że uwzględnienie redundantnych parametrów średnich może przyspieszyć MCMC. Podany przykład jest nie zagnieżdżonym modelem „symulatora lotu” (równanie 13.9): yiγjδk∼N(μ+γj[i]+δk[i],σ2y)∼N(0,σ2γ)∼N(0,σ2δ)yi∼N(μ+γj[i]+δk[i],σy2)γj∼N(0,σγ2)δk∼N(0,σδ2) \begin{align} y_i &\sim N(\mu + \gamma_{j[i]} + \delta_{k[i]}, \sigma^2_y) \\ \gamma_j &\sim N(0, …

2
Czy Gibbs pobiera próbki z metody MCMC?
O ile rozumiem, jest to (przynajmniej tak definiuje to Wikipedia ). Ale znalazłem to oświadczenie Efron * (wyróżnienie dodane): Sieć Markov Monte Carlo (MCMC) to wielki sukces współczesnych statystyk bayesowskich. MCMC i jego siostrzana metoda „próbkowania Gibbsa” pozwalają na obliczenia numeryczne rozkładów bocznych w sytuacjach zbyt skomplikowanych do analizy analitycznej. …
11 mcmc  gibbs 


1
Jak uzyskać próbkowanie Gibbsa?
W rzeczywistości waham się zadać to pytanie, ponieważ obawiam się, że zostaną skierowane do innych pytań lub Wikipedii na temat pobierania próbek Gibbs, ale nie mam wrażenia, że ​​opisują to, co jest pod ręką. Biorąc pod uwagę prawdopodobieństwo warunkowe : p ( x | y ) y = y 0 …
11 sampling  mcmc  gibbs 

1
Modelowanie bayesowskie przy użyciu wielowymiarowej normalnej z kowariantem
Załóżmy, że masz zmienną objaśniającą gdzie oznacza daną współrzędną. Masz również zmienną odpowiedzi . Teraz możemy połączyć obie zmienne jako:X=(X(s1),…,X(sn))X=(X(s1),…,X(sn)){\bf{X}} = \left(X(s_{1}),\ldots,X(s_{n})\right)sssY=(Y(s1),…,Y(sn))Y=(Y(s1),…,Y(sn)){\bf{Y}} = \left(Y(s_{1}),\ldots,Y(s_{n})\right) W(s)=(X(s)Y(s))∼N(μ(s),T)W(s)=(X(s)Y(s))∼N(μ(s),T){\bf{W}}({\bf{s}}) = \left( \begin{array}{ccc}X(s) \\ Y(s) \end{array} \right) \sim N(\boldsymbol{\mu}(s), T) W takim przypadku wybieramy po prostu μ(s)=(μ1μ2)Tμ(s)=(μ1μ2)T\boldsymbol{\mu}(s) = \left( \mu_{1} \; \; \mu_{2}\right)^{T} a TTT …

Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.