Podczas częstych statystyk istnieje długa lista dużych „no-nosów”, takich jak przeglądanie wyników testów statystycznych przed podjęciem decyzji o zebraniu większej ilości danych. Zastanawiam się na ogół, czy istnieje podobna lista numerów zerowych dla metodologii stosowanych w statystyce bayesowskiej, a konkretnie, czy jedna z nich jest następująca.
Niedawno zdałem sobie sprawę, że w przypadku niektórych modeli, które pasowałem, moim procesem było najpierw dopasowanie modelu do pouczających priorów, aby sprawdzić, czy działa, czy też wybuchło, a następnie osłabienie priorsów do niedoinformujących lub słabo informujących i zamontuj model.
Moja motywacja do tego naprawdę wiąże się z tym, że piszę te modele w JAGS / Stan i moim zdaniem traktuję to bardziej jako zadanie programistyczne niż statystyczne. Robię więc pierwszą próbę, tak jakby ją zmontowałem, aby szybko zbiegła się przy użyciu pouczających priorów, co ułatwia wykrycie błędów w modelu, który napisałem. Następnie, po debugowaniu modelu, zmieniam go na nieprzydatne lub słabo informujące priory.
Moje pytanie dotyczy tego, czy w tym procesie łamię jakieś poważne reguły. Na przykład, aby moje wnioski były ważne i aby uniknąć wykorzystywania stopni swobody badaczy, czy muszę zobowiązać się do określonych priorytetów, zanim zacznę pasować do jakichkolwiek modeli?