Bootstrapping jest wykonywany, aby uzyskać bardziej solidny obraz rozkładu próbkowania niż ten, który zakłada teoria dużych próbek. Podczas bootstrapu nie ma praktycznie żadnych ograniczeń co do liczby pobieranych `butów '; w rzeczywistości otrzymujesz lepsze przybliżenie rozkładu próbkowania, im więcej pobierzesz próbek. Oczywiste jest, aby używać bootsamples, choć nie ma nic magicznego tego numeru. Co więcej, nie uruchamiasz testu na bootamples; masz oszacowany rozkład próbkowania - użyj go bezpośrednio. Oto algorytm:B = 10 , 000
- weź próbkę jednego zestawu danych, próbkując obserwacji rozruchu z zamiennikiem. [W odniesieniu do poniższych komentarzy, jednym istotnym pytaniem jest, co stanowi prawidłową „obserwację rozruchu”, którą należy zastosować w przypadku twojego przykładowego buta. W rzeczywistości istnieje kilka uzasadnionych podejść; Wspomnę o dwóch, które są solidne i pozwalają na odzwierciedlenie struktury danych: Gdy masz dane obserwacyjne (tj. Dane zostały próbkowane we wszystkich wymiarach, obserwacją rozruchową może być uporządkowana liczba-krotka (np. Wiersz z zestawu danych) .Na przykład, jeśli masz jedną zmienną predykcyjną i jedną zmienną odpowiedzi, próbujesz n 1 ( x , y )n1n1 ( x , y)Zamówiłem parę. Z drugiej strony, podczas pracy z danymi eksperymentalnymi, wartości zmiennych predykcyjnych nie były próbkowane, ale jednostki eksperymentalne zostały przypisane do zamierzonych poziomów każdej zmiennej predykcyjnej. W takim przypadku możesz próbkować y wartości z każdego poziomu j zmiennej predyktora, a następnie sparować te y z odpowiednią wartością tego poziomu predyktora. W ten sposób nie próbujesz ponad X. ]n1 j yjotyX
- pasowały do modelu regresji i przechowywać oszacowanie nachylenia (nazywają to p 1 )β^1
- zrób próbkę innego zestawu danych, próbkując obserwacji rozruchu z wymianąn2)
- dopasować inny model regresji i przechowywać oszacowania nachylenie (nazwać p 2 )β^2)
- tworzą statystyki z dwóch oszacowań (propozycja: wykorzystanie różnicy nachylenia β 1 - β 2 )β^1- β^2)
- przechowuj statystyki i zrzuć inne informacje, aby nie marnować pamięci
- Powtórzyć kroki 1 - 6, razyB = 10 , 000
- posortuj bootstrapped rozkład próbkowania różnic nachylenia
- obliczyć% bsd, który pokrywa się z 0 (w zależności od tego, która wartość jest mniejsza, prawy ogon% lub lewy ogon%)
- pomnóż ten odsetek przez 2
Logika tego algorytmu jako testu statystycznego jest zasadniczo podobna do klasycznych testów (np. Testów t), ale nie zakładasz, że dane lub wynikające z nich rozkłady próbkowania mają jakiś szczególny rozkład. (Na przykład, nie zakładasz normalności.) Podstawowym założeniem, które przyjmujesz, jest to, że twoje dane są reprezentatywne dla populacji, z której próbujesz / chcesz uogólnić. Oznacza to, że rozkład próby jest podobny do rozkładu populacji. Pamiętaj, że jeśli twoje dane nie są powiązane z populacją, którą jesteś zainteresowany, nie masz szczęścia.
Niektóre osoby martwią się np. Użyciem modelu regresji do określenia nachylenia, jeśli nie chcesz zakładać normalności. Ta obawa jest jednak błędna. Twierdzenie Gaussa-Markowa mówi nam, że oszacowanie jest obiektywne (tzn. Wyśrodkowane na prawdziwej wartości), więc jest w porządku. Brak normalności oznacza po prostu, że prawdziwy rozkład próbkowania może różnić się od teoretycznie założonego, a zatem wartości p są nieprawidłowe. Procedura ładowania początkowego pozwala rozwiązać ten problem.
Dwa inne kwestie dotyczące ładowania początkowego: Jeśli spełnione są klasyczne założenia, ładowanie początkowe jest mniej wydajne (tj. Ma mniejszą moc) niż test parametryczny. Po drugie, ładowanie początkowe działa najlepiej, gdy eksplorujesz w pobliżu środka rozkładu: środki i mediany są dobre, kwartyle nie są tak dobre, ładowanie początkowe min. Lub maks. Niekoniecznie. Jeśli chodzi o pierwszy punkt, może nie być konieczne rozpoczęcie ładowania w twojej sytuacji; w odniesieniu do drugiego punktu, ładowanie stoku jest idealnie w porządku.