Co jest złego w sumowaniu wszystkich pojedynczych wartości ?p
Jak argumentują @whuber i @Glen_b w komentarzach, metoda Fishera zasadniczo zwielokrotnia wszystkie indywidualne wartości , a mnożenie prawdopodobieństw jest bardziej naturalne niż dodawanie ich.p
Nadal można je dodać. W rzeczywistości dokładnie to zasugerował Edgington (1972). Metoda addytywna do łączenia wartości prawdopodobieństwa z niezależnych eksperymentów (pod ścianą płacową), a czasami jest nazywana metodą Edgingtona. W artykule z 1972 r. Stwierdzono, że tak jest
Wykazano, że metoda addytywna jest silniejsza niż metoda multiplikatywna, mająca większe prawdopodobieństwo niż metoda multiplikatywna dająca znaczące wyniki, gdy faktycznie występują efekty leczenia.
ale biorąc pod uwagę, że metoda pozostaje stosunkowo nieznana, podejrzewam, że było to co najmniej nadmierne uproszczenie. Np. Niedawny przegląd Cousins (2008) Adnotated Bibliography of Some Papers on Combining Signiances lub p-values w ogóle nie wspomina o metodzie Edgingtona i wydaje się, że ten termin nigdy nie został wspomniany w CrossValidated.
Łatwo jest wymyślić różne sposoby łączenia wartości (kiedyś sam wymyśliłem jedną z nich i zapytałem, dlaczego nigdy nie jest używana: metoda Z-score Stouffera: co jeśli sumujemy zamiast ? ), a lepsza metoda jest w dużej mierze kwestią empiryczną. Zobacz odpowiedź @ Whubera na empiryczne porównanie mocy statystycznej dwóch różnych metod w konkretnej sytuacji; jest wyraźny zwycięzca.z 2 zpz2z
Tak więc odpowiedź na ogólne pytanie, dlaczego w ogóle używa się jakiejkolwiek „zwiniętej” metody, polega na tym, że można zdobyć moc.
Zaykin i wsp. (2002) Metoda obciętego produktu do łączenia wartości p przeprowadza pewne symulacje i uwzględnia metodę Edgingtona w porównaniu, ale nie jestem pewien co do wniosków.
Jednym ze sposobów wizualizacji wszystkich takich metod jest narysowanie regionów odrzucenia dla , jak zrobił to @Elvis w swojej ładnej odpowiedzi (+1). Oto kolejna liczba, która wyraźnie obejmuje metodę Edgingtona z czegoś, co wydaje się być plakatem Winkler i in. (2013) Nieparametryczna kombinacja do analiz obrazowania multimodalnego :n=2
Powiedziawszy to wszystko, myślę, że wciąż pozostaje pytanie, dlaczego metoda Edgingtona byłaby (często?) Nieoptymalna, co wynika z niejasności.
Być może jednym z powodów niejasności jest to, że nie jest on zbyt dobrze zgodny z naszą intuicją: dla , jeśli (lub więcej), to bez względu na wartość , połączona wartość null nie zostanie odrzucona w , czyli nawet jeśli np. .p 1 = 0,4 p 2 α = 0,05 p 2 = 0,00000001n=2p1=0.4p2α=0.05p2=0.00000001
Mówiąc bardziej ogólnie, sumowanie wartości prawie nie odróżnia bardzo małych liczb, takich jak np. od , ale różnica w tych prawdopodobieństwach jest naprawdę ogromna.p = 0,001 p = 0,00000001pp=0.001p=0.00000001
Aktualizacja. Oto, co Hedges i Olkin piszą o metodzie Edgintgona (po przejrzeniu innych metod łączenia wartości ) w swoich Statystycznych Metodach Metaanalizy (1985), podkreśl moje:p
Zupełnie inną procedurę testu łączonego zaproponował Edgington (1972a, b). Edgington proponuje łączenie -values przez zsumowanie i otrzymano żmudny lecz prosty sposób uzyskania poziomu istotności dla . Duże przybliżenie próbki do poziomów istotności podano w Edgington (1972b). Chociaż jest to procedura kombinacji monotonicznej i dlatego jest dopuszczalna, metoda Edgingtona jest ogólnie uważana za kiepską procedurę, ponieważ jedna duża wartość może przytłaczać wiele małych wartości, które składają się na statystyki. Jednak nie przeprowadzono prawie żadnych badań numerycznych tej procedury.S = p 1 + ⋯ + p k , S S pp
S=p1+⋯+pk,
SSp