Muszę wykonać symulację, aby ocenić całkę funkcji 3-parametrowej, mówimy , która ma bardzo skomplikowaną formułę. Poproszono o użycie metody MCMC w celu jej obliczenia i zaimplementowania algorytmu Metropolis-Hastings w celu wygenerowania wartości rozłożonych jako , i zasugerowano użycie 3 różnych normalnych jako rozkładu propozycji. Czytając kilka przykładów na ten temat, zauważyłem, że niektóre z nich używają normalnej ze stałymi parametrami a niektóre ze zmienną średnią , gdzie jest ostatnią akceptowaną wartością w podziale według . Mam wątpliwości co do obu podejść:
1) Jakie jest znaczenie wyboru ostatniej zaakceptowanej wartości jako nowego środka dystrybucji naszych propozycji? Moja intuicja mówi, że powinno to gwarantować, że nasze wartości będą bliższe wartościom rozłożonym jako a szanse na akceptację byłyby większe. Ale czy to nie koncentruje zbytnio naszej próbki? Czy zagwarantowane jest, że jeśli otrzymam więcej próbek, łańcuch się zatrzyma?
2) Czy wybór stałych parametrów (ponieważ jest naprawdę trudny do analizy) nie byłby naprawdę trudny i zależałby od pierwszej próbki, którą musimy wybrać, aby uruchomić algorytm? W takim przypadku, jakie byłoby najlepsze podejście do znalezienia, które z nich jest lepsze?
Czy jedno z tych podejść jest lepsze od drugiego, czy to zależy od przypadku?
Mam nadzieję, że moje wątpliwości są jasne i byłbym zadowolony, gdyby można było podać literaturę (przeczytałem kilka artykułów na ten temat, ale więcej jest lepszych!)
Z góry dziękuję!