Subtelność wartości p: większa-równa vs. większa


11

Gdy czytam książkę Wassermanna Wszystkie statystyki, dostrzegam subtelną subtelność w definicji wartości p, której nie mogę zrozumieć. Nieformalnie Wassermann określa wartość p jako

[..] prawdopodobieństwo (poniżej ) zaobserwowania wartości statystyki testowej takiej samej lub bardziej ekstremalnej niż rzeczywista obserwowana.H0

Podkreślenie dodane. To samo bardziej formalnie (Twierdzenie 10.12):

Załóżmy, że test rozmiar ma postaćα

odrzucić wtedy i tylko wtedy, gdy .H0T(Xn)cα

Następnie,

p-value=supθΘ0Pθ0[T(Xn)T(xn)]

gdzie xn jest obserwowaną wartością Xn . Jeśli Θ0={θ0} to

p-value=Pθ0[T(Xn)T(xn)]

Ponadto Wassermann definiuje wartość p testu \ chi ^ 2 Pearsona χ2(i innych testów analogicznie) jako:

p-value=P[χk12>T].

Część, o którą lubię prosić o wyjaśnienie, to znak większej równości ( ) w pierwszej i większy ( > ) znak w drugiej definicji. Dlaczego nie piszemy T , który pasowałby do pierwszego cytatu „ to samo lub bardziej ekstremalne?”

Czy to czysta wygoda, aby obliczyć wartość p jako ? Zauważam, że R używa również definicji ze znakiem , np . W.1F(T)>chisq.test


5
Czy zdajesz sobie sprawę, że wartość p jest taka sama dla obu definicji, jeśli statystyka testowa jest ciągła?
mark999

3
Nie ma to znaczenia dla ciągłych dystrybucji, ale fakt ten nie powinien kusić cię do zapomnienia o różnicy między i ponieważ matematycznie ma to znaczenie. Ma to również znaczenie w aplikacjach, ponieważ z powodu „dyskrecji prawdziwego życia” możemy w rzeczywistości napotkać wartości p dokładnie . <α
Horst Grünbusch

Odpowiedzi:


11

„As or more extreme” jest poprawne.

Formalnie zatem, jeśli rozkład jest taki, że prawdopodobieństwo uzyskania samej statystyki testowej jest dodatnie, to prawdopodobieństwo (i wszystko równie ekstremalne, takie jak odpowiednia wartość w drugim ogonie) powinno zostać uwzględnione w wartości p.

Oczywiście przy ciągłej statystyce prawdopodobieństwo dokładnej równości wynosi 0. Nie ma znaczenia, jeśli mówimy lub .>


4

Pierwszym punktem jest to, że przestrzeń hipotezy jest topologicznie zamknięta w całej przestrzeni parametrów. Bez uwzględnienia losowości może to być przydatna konwencja, jeśli masz pewne twierdzenie na temat zbieżnej sekwencji parametrów należących do hipotezy, ponieważ wtedy wiesz, że granica nie należy nagle do alternatywy.

Biorąc pod uwagę rozkłady prawdopodobieństwa, są one (zwykle) prawe ciągłe. Oznacza to, że mapowanie zamkniętej przestrzeni hipotez na przedział jest ponownie zamykane. Dlatego też przedziały ufności są również zamykane umownie.[0,1]

To poprawia matematykę. Wyobraź sobie, że skonstruowałbyś przedział ufności dla parametru lokalizacji asymetrycznego rozkładu prawdopodobieństwa. Tam musiałbyś wymienić długość na górny ogon na długość na dolny ogon. Prawdopodobieństwo w obu ogonach powinno sumować się do . Aby CI był jak najbardziej informacyjny, musisz skrócić jego długość tak, aby prawdopodobieństwo jego pokrycia było nadal . To jest zamknięty zestaw. Można tam znaleźć optymalne rozwiązanie za pomocą algorytmu iteracyjnego, np. Twierdzenia Banacha o punkcie stałym. Jeśli byłby to otwarty zestaw, nie można tego zrobić.α1α

Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.