Jakie są zalety korzystania z testów permutacyjnych?


10

Podczas testowania niektórych hipotez zerowych w porównaniu z alternatywnymi hipotezami za pomocą statystyki testowej , gdzie , zastosuj test permutacji z zestawem permutacji na a my mamy nową statystykę U(X)X={xi,...,xn}GX

T(X):=#{πG:U(πX)U(X)}|G|.
  1. Jakie są zalety korzystania z testu permutacji w porównaniu z jego niestosowaniem? Tj. Jak to jest, gdy działa test permutacji?

  2. Jakie warunki, aby tak się stało? Takich jak niektóre warunki statystyki testowej i / lub hipotezy zerowej?U

Na przykład,

  1. Czy być równy wartości p opartej na dla próbki ? Jeśli tak, dlaczego? (referencje są również mile widziane)T(X)U(X)X

    Wartość p dla jest zdefiniowana jako . Jeżeli test permutacji ma oszacować rozkład permutacji U (X) | X = x , w jaki sposób T (X) równa się wartości p U (X) przy X = x ? W szczególności może występować więcej niż jedna dystrybucja w zerowym H , a T (X) nie bierze pod uwagę rozkładów zerowych jeden po drugim, a następnie przyjmuje \ sup_ {F \ in H} i \ inf_ {c: U (x) \ geq c} .U(X)

    infcR:U(x)csupFHP(U(X)c|XF)
    U(X)|X=xT(X)U(X)X=xHT(X)supFHinfc:U(x)c
  2. Czy test permutacji powinien sprawić, że T(X) wolny od dystrybucji w hipotezach zerowych? Jakie warunki to spowodują?

  3. Czy T(X) być równomiernie rozłożony na [0,1] ? Jakie warunki to spowodują? Zauważ, że gdy U() jest funkcją stałą, T() jest również stały przy 1 a rozkład T(X) jest daleki od jednorodności w stosunku do [0,1] .

Dziękuję i pozdrawiam!


@Glen_b: Dzięki! Czy być równy wartości p opartej na dla dowolnej próbki ? Jeśli dobrze rozumiem, znalazłem to na stronie 5 tych slajdów. Zatem korzyść z zastosowania testu permutacji polega na obliczeniu wartości p oryginalnej statystyki testu bez znajomości rozkładu poniżej zera? Dlatego rozkład niekoniecznie musi być jednolity? T(X)U(X)XUXT(X)
Tim

Czy „T jest wartością p (w przypadkach, gdy duże U wskazuje odchylenie od wartości zerowej, a małe U jest z nią zgodne)”, oznacza, że ​​wartość p dla statystyki testowej i próbki wynosi ? UXT(X)
Tim

Dlaczego? Czy można to wyjaśnić?
Tim

Odpowiedzi:


18

Ponieważ dyskusja wydłużała się, udzieliłem odpowiedzi na odpowiedź. Ale zmieniłem kolejność.

Testy permutacyjne są „dokładne”, a nie asymptotyczne (porównaj na przykład z testami współczynnika wiarygodności). Na przykład można wykonać test środków, nawet bez możliwości obliczenia rozkładu różnicy średnich poniżej wartości zerowej; nie musisz nawet określać zaangażowanych dystrybucji. Możesz zaprojektować statystykę testową, która ma dobrą moc na podstawie zestawu założeń, nie będąc tak wrażliwym na nie, jak w pełni parametryczne założenie (możesz użyć statystyki, która jest solidna, ale ma dobrą ARE).

Zauważ, że podane przez ciebie definicje (a raczej to, kto je tam podaje) nie są uniwersalne; niektórzy nazywają U statystyką testu permutacji (tym, co sprawia, że ​​test permutacji nie jest statystyka, ale sposób oceny wartości p). Ale gdy wykonasz test permutacji i wyznaczysz kierunek, ponieważ „skrajności tego są niespójne z H0”, tego rodzaju definicja dla T powyżej jest w zasadzie sposobem obliczania wartości p - jest to tylko rzeczywista proporcja rozkład permutacji co najmniej tak ekstremalny jak próbka pod wartością zerową (sama definicja wartości p).

Na przykład, jeśli chcę wykonać test (jednostronny, dla uproszczenia) środków takich jak test t dla dwóch próbek, mógłbym uczynić moją statystykę licznikiem statystyki t lub samej statystyki t, lub suma pierwszej próbki (każda z tych definicji jest monotoniczna w pozostałych, uwarunkowana połączoną próbką) lub dowolna ich monotoniczna transformacja i mają ten sam test, ponieważ dają identyczne wartości p. Wszystko, co muszę zrobić, to zobaczyć, jak daleko (pod względem proporcji) rozkład permutacji dowolnej statystyki, którą wybiorę, stanowi statystyka próbna. T, jak zdefiniowano powyżej, to po prostu kolejna statystyka, tak dobra jak każda inna, którą mogłem wybrać (T jak zdefiniowano, że jest monotoniczny w U).

T nie będzie dokładnie jednorodny, ponieważ wymagałoby to ciągłych rozkładów, a T jest z konieczności dyskretny. Ponieważ U i T mogą odwzorować więcej niż jedną permutację w danej statystyce, wyniki nie są równoważne, ale mają „jednolity” cdf **, ale taki, w którym kroki niekoniecznie są równej wielkości .

** ( , i dokładnie równa temu przy odpowiednim limicie każdego skoku - prawdopodobnie istnieje nazwa tego, co tak naprawdę jest)F(x)x

Dla rozsądnych statystyk, gdy idzie w nieskończoność, rozkład zbliża się do jednorodności. Myślę, że najlepszym sposobem na ich zrozumienie jest zrobienie ich w różnych sytuacjach. nT

Czy T (X) powinien być równy wartości p opartej na U (X) dla dowolnej próbki X? Jeśli dobrze rozumiem, znalazłem to na stronie 5 tych slajdów.

T jest wartością p (w przypadkach, gdy duże U wskazuje odchylenie od wartości zerowej, a małe U jest z nim zgodne). Zauważ, że rozkład zależy od próbki. Więc jego dystrybucja nie jest „dla żadnej próbki”.

Zatem korzyść z zastosowania testu permutacji polega na obliczeniu wartości p oryginalnej statystyki testu U bez znajomości rozkładu X poniżej zera? Dlatego rozkład T (X) niekoniecznie musi być jednolity?

Wyjaśniłem już, że T nie jest jednolity.

Myślę, że już wyjaśniłem, co widzę jako zalety testów permutacyjnych; inni zasugerują inne zalety ( np .).

Czy „T jest wartością p (w przypadkach, gdy duże U wskazuje odchylenie od wartości zerowej, a małe U jest z nią zgodne)”, oznacza, że ​​wartość p dla statystyki testowej U i próbki X wynosi T (X)? Dlaczego? Czy można to wyjaśnić?

Cytowane zdanie wyraźnie stwierdza, że ​​T jest wartością p, i kiedy jest. Jeśli potrafisz wyjaśnić, co jest niejasne, może mógłbym powiedzieć więcej. Jeśli tak, to dlaczego zobacz definicję wartości p (pierwsze zdanie pod linkiem) - z tego wynika wprost

Jest to dobry podstawowy dyskusja testów permutacji tutaj .

-

Edycja: Dodaję tutaj mały przykład testu permutacji; ten kod (R) jest odpowiedni tylko dla małych próbek - potrzebujesz lepszych algorytmów do znajdowania ekstremalnych kombinacji w umiarkowanych próbkach.

Rozważ test permutacji w stosunku do jednostronnej alternatywy:

H0:μx=μy (niektórzy nalegają na *)μxμy
H1:μx<μy

* ale zwykle tego unikam, ponieważ szczególnie mylą ten problem dla studentów, gdy próbują wypracować zerowe rozkłady

na następujących danych:

> x;y
[1] 25.17 20.57 19.03
[1] 25.88 25.20 23.75 26.99

Istnieje 35 sposobów na podzielenie 7 obserwacji na próbki wielkości 3 i 4:

> choose(7,3)
[1] 35

Jak wspomniano wcześniej, biorąc pod uwagę 7 wartości danych, suma pierwszej próbki jest monotoniczna w różnicy średnich, więc zastosujmy to jako statystykę testową. Oryginalna próbka ma więc statystykę testową:

> sum(x)
[1] 64.77

Oto rozkład permutacji:

> sort(apply(combn(c(x,y),3),2,sum))
 [1] 63.35 64.77 64.80 65.48 66.59 67.95 67.98 68.66 69.40 69.49 69.52 69.77
[13] 70.08 70.11 70.20 70.94 71.19 71.22 71.31 71.62 71.65 71.90 72.73 72.76
[25] 73.44 74.12 74.80 74.83 75.91 75.94 76.25 76.62 77.36 78.04 78.07

(Nie jest konieczne ich sortowanie, właśnie to zrobiłem, aby ułatwić sprawdzenie, czy statystyki testowe są drugą wartością od końca.)

Widzimy (w tym przypadku przez kontrolę), że wynosi 2/35, lubp

> 2/35
[1] 0.05714286

(Należy zauważyć, że tylko w przypadku braku nakładania się xy możliwa jest tutaj wartość p poniżej 0,05. W tym przypadku byłby dyskretnie jednorodny, ponieważ w nie ma żadnych powiązanych wartości ).TU

rozkład permutacji

Różowe strzałki wskazują statystykę próbki na osi x, a wartość p na osi y.


Dzięki! Zasadniczo test permutacji służy do oszacowania rozkładu przy zerowym rozkładzie , prawda? Zatem zależy od rozkładu zerowego , ale wartość p jest inf szybkości FP we wszystkich rozkładach zerowych , a jest wartością p dla i ? U(X)XT(X)XXT(X)UX
Tim

Szacuje rozkład permutacji . Fakt, że traktujesz wszystkie permutacje jako jednakowo prawdopodobne, sprawia, że ​​„poniżej zera” (ponieważ pod zerą permutacje powinny być równie prawdopodobne). U(X)|X=x
Glen_b

(1) Wartość p dla jest zdefiniowana jako . Jeżeli test permutacji ma oszacować rozkład permutacji , w jaki sposób równa się wartości p przy ? W szczególności może występować więcej niż jedna dystrybucja w zerowym , a nie bierze pod uwagę rozkładów zerowych jeden po drugim, a następnie przyjmuje i . (2) Czy ma taki sam rozkład dla wszystkich rozkładów zerowych, tj. Bez dystrybucji wrt zerowy? U(X)
infcR:U(x)csupFHP(U(X)c|XF)
U(X)|X=xT(X)U(X)X=xHT(X)supFHinfc:U(x)cT(X)
Tim

Dodane do (1), test permutacji dotyczy nie tylko prostych zer, ale także kompozytowych, prawda?
Tim

(1) Zdefiniowano gdzie? To wydaje się dziwna definicja. Dlaczego miałbyś określać rozkład X? Uwarunkowałeś . Twoje zamieszanie wydaje się wynikać z dość dziwnej definicji. (2) nie ma dla mnie żadnego sensu. X=x
Glen_b
Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.