Należy pamiętać, że w każdej pozycji obserwacyjnej (i = 1 , 2 , . . . , n) możemy wybrać dowolny z n obserwacje, więc są nn możliwe próbki (z zachowaniem kolejności ich losowania) n ! są „tą samą próbką” (tj. zawierają wszystkie noryginalne obserwacje bez powtórzeń; uwzględnia to wszystkie sposoby zamawiania próbki, od której zaczęliśmy).
Na przykład z trzema obserwacjami, a, b i c, masz 27 możliwych próbek:
aaa aab aac aba abb abc aca acb acc
baa bab bac bba bbb bbc bca bcb bcc
caa cab cac cba cbb cbc cca ccb ccc
Sześć z nich zawiera po jednym z a, b i c.
Więc n ! /nn to prawdopodobieństwo odzyskania oryginalnej próbki.
Na bok - szybkie przybliżenie prawdopodobieństwa:
Weź pod uwagę, że :
2 π--√ nn +12)mi- n≤ n ! ≤ e nn +12)mi- n
więc
2 π--√ n12)mi- n≤ n ! /nn≤ e n12)mi- n
Dolna granica jest zwykle podana dla przybliżenia Stirlinga (która ma niski błąd względny dla dużego n).
[Gosper zasugerował użycien ! ≈( 2 n +13))π---------√nnmi- n co dałoby przybliżenie ( 2 n +13)) π--------√mi- n dla tego prawdopodobieństwa, które działa dość dobrze aż do n = 3, a nawet do n = 1 w zależności od tego, jak surowe są twoje kryteria.]
(Odpowiedź na komentarz :) Prawdopodobieństwo, że nie uzyska się konkretnej obserwacji w danym ponownym próbkowaniu, wynosi ( 1 -1n)n który dla dużych n jest w przybliżeniu mi- 1.
Aby uzyskać szczegółowe informacje, zobacz
Dlaczego średnio każda próbka bootstrap zawiera około dwie trzecie obserwacji?