Mówiąc prosto, bez żadnych symboli matematycznych, wcześniejsze oznaczają początkowe przekonania o zdarzeniu pod względem rozkładu prawdopodobieństwa . Następnie konfigurujesz eksperyment i uzyskujesz trochę danych, a następnie „aktualizujesz” swoje przekonania (i stąd rozkład prawdopodobieństwa) zgodnie z wynikiem eksperymentu (rozkład prawdopodobieństwa a posteriori).
Przykład:
Załóżmy, że otrzymaliśmy dwie monety. Ale nie wiemy, która moneta jest fałszywa. Moneta 1 jest bezstronna (HEADS i TAILS mają 50% prawdopodobieństwa), a Moneta 2 jest stronnicza, powiedzmy, wiemy, że daje HEADS z prawdopodobieństwem 60%. Matematycznie:
p ( H| doo i n1) = 0,4
p ( H| doo i n2)) = 0,6
To wszystko, co wiemy przed rozpoczęciem eksperymentu.
Teraz wybieramy rzut monetą i na podstawie informacji, które mamy (H lub T), zgadniemy, którą monetę wybraliśmy (Moneta 1 lub Moneta 2).
p ( Co i n1) = p ( Co i n2)) = 0,5
p ( Co i n1| H.) = p ( H| doo i n1) p ( Co i n1)p ( H| doo i n1) p ( Co i n1) + p ( H| doo i n2)) p ( Co i n2))= 0,4 × 0,50,4 × 0,5 + 0,6 × 0,5= 0,4
p ( Co i n2)| H.) = p ( H| doo i n2)) p ( Co i n2))p ( H| doo i n1) p ( Co i n1) + p ( H| doo i n2)) p ( Co i n2))= 0,6 × 0,50,4 ×0,5 + 0,6 × 0,5= 0,6
0.5
Jest to podstawowa zasada wnioskowania bayesowskiego i statystyki wykorzystywanej w uczeniu maszynowym.