O ile mi wiadomo, przybliżone obliczenia bayesowskie (ABC) i łańcuch Markowa Monte Carlo (MCMC) mają bardzo podobne cele. Poniżej opisuję moje rozumienie tych metod oraz sposób, w jaki postrzegam różnice w ich zastosowaniu do rzeczywistych danych.
Przybliżone obliczenia bayesowskie
ABC polega na pobraniu próbek parametru z poprzedniego poprzez symulację numeryczną obliczenia statystyczne która w porównaniu do pewnego obserwowanej . Na podstawie algorytmu odrzucenia, jest albo zachowane lub odrzucone. Lista zachowanych utworzyła rozkład tylny.
Markov Chain Monte Carlo
MCMC polega na próbkowaniu wcześniejszego rozkładu parametru . Pobiera pierwszą próbkę θ 1 , oblicza P ( x o b s | θ 1 ) P ( θ 1 ), a następnie przeskakuje (zgodnie z pewną regułą) do nowej wartości θ 2, dla której P ( x o b s | θ 2 ) P ( θ 2 ) jest obliczane ponownie. Stosunek P ( x o b s jest obliczane i w zależności od pewnej wartości progowej następny skok nastąpi z pierwszej lub drugiej pozycji. Eksploracjaθwartości idzie jeden i jeden i do końca, rozkład zatrzymanychθwartości jest rozkład a posteriorip(θ|x)(z tego powodu, że nie jest jeszcze znana do mnie).
Zdaję sobie sprawę, że moje wyjaśnienia nie odzwierciedlają różnorodności metod, które istnieją pod każdym z tych terminów (szczególnie w przypadku MCMC).
ABC vs MCMC (plusy i minusy)
ABC ma tę zaletę, że nie trzeba być w stanie analitycznie rozwiązać . Jako taki ABC jest wygodny dla złożonego modelu, w którym MCMC by tego nie zrobił.
MCMC pozwala na przeprowadzanie testów statystycznych (test ilorazu wiarygodności, test G, ...), podczas gdy nie sądzę, aby było to możliwe w przypadku ABC.
Czy mam rację do tej pory?
Pytanie
- Czym ABC i MCMC różnią się w swoich aplikacjach? Jak ktoś decyduje się na zastosowanie jednej lub drugiej metody?