Czy ktoś może dobrze podsumować różnice między bayesowskim a częstym podejściem do prawdopodobieństwa?
Z tego co rozumiem:
Częstotliwość uważa, że dane są powtarzalną próbą losową (zmienną losową) o określonej częstotliwości / prawdopodobieństwie (która jest zdefiniowana jako względna częstotliwość zdarzenia, gdy liczba prób zbliża się do nieskończoności). Podstawowe parametry i prawdopodobieństwa pozostają stałe podczas tego powtarzalnego procesu, a zmiana jest spowodowana zmiennością a nie rozkładem prawdopodobieństwa (który jest ustalony dla określonego zdarzenia / procesu).
Bayesowski widok jest taki, że dane są stałe, podczas gdy częstotliwość / prawdopodobieństwo dla określonego zdarzenia może ulec zmianie, co oznacza, że parametry rozkładu ulegają zmianie. W efekcie otrzymane dane zmieniają wcześniejszą dystrybucję parametru, który jest aktualizowany dla każdego zestawu danych.
Wydaje mi się, że częste podejście jest bardziej praktyczne / logiczne, ponieważ wydaje się rozsądne, że zdarzenia mają określone prawdopodobieństwo i że zmienność jest w naszym dobraniu próby.
Co więcej, większość analiz danych z badań jest zwykle przeprowadzana przy użyciu podejścia częstokroć (tj. Przedziały ufności, testowanie hipotez z wartościami p itp.), Ponieważ jest to łatwe do zrozumienia.
Zastanawiałem się tylko, czy ktokolwiek mógłby mi szybko podsumować swoją interpretację podejścia bayesowskiego vs. częstokrzyskiego, w tym bayesowskie równoważniki statystyczne częstości p i przedziału ufności. Ponadto doceniono konkretne przykłady, w których 1 metoda byłaby lepsza od drugiej.