Dlaczego statystyka parametryczna miałaby być zawsze lepsza od statystyki nieparametrycznej?


60

Czy ktoś może mi wyjaśnić, dlaczego ktoś miałby wybrać parametryczną zamiast nieparametrycznej metody statystycznej do testowania hipotez lub analizy regresji?

W moim umyśle, to jak pójście do raftingu i wybierając odporny zegarek bez wody, bo może nie dostać mokre. Dlaczego nie skorzystać z narzędzia, które działa na każdą okazję?


21
Ma to na celu wprowadzenie uprzedzeń indukcyjnych w procesie wnioskowania statystycznego. To fantazyjny sposób powiedzenia: jeśli coś wiesz, podaj to jako wskazówkę. Ta wskazówka może przybierać formy, takie jak zapewnienie funkcjonalnej formy prawdopodobieństwa lub wcześniejszego rozkładu parametrów. Jeśli podpowiedź jest dobra, wynik jest lepszy niż bez podpowiedzi, a jeśli jest zły, wynik jest gorszy.
Cagdas Ozgenc

6
Niekoniecznie. Zasadniczo szukasz czegoś na bardzo dużym deserze. Jeśli ktoś powie ci, że to, czego szukasz, ogranicza się do określonego terytorium, Twoje szanse na znalezienie go wzrosną. Ale jeśli wprowadzą cię w błąd przy niewłaściwych informacjach, to bez względu na to, jak często przeszukujesz to terytorium, nie znajdziesz go.
Cagdas Ozgenc

17
Jako stolarz uwielbiam analogię na końcu. Domy i meble, które są dobrze zbudowane i ostatnie są budowane przy użyciu specjalistycznych narzędzi. Narzędzia ogólnego zastosowania są idealne dla właścicieli domów i profesjonalistów, którzy muszą szybko wykonać pracę, lub gdy używają prymitywnego lub nieodpowiedniego narzędzia, nie zrobią różnicy w jakości, na którą wszyscy się troszczą. Rzemieślnicy osiągają jednak najlepsze wyniki, stosując odpowiednie narzędzie do pracy, a nawet rzeczy nie da się bez tego zrobić. Na przykład nikt nigdy nie zrobił dobrego jaskółczego ogona za pomocą piły ręcznej ogólnego zastosowania.
whuber

3
Niezależnie od tego, czy kopiesz rów za pomocą łopaty, czy łyżeczki do herbaty, skończysz z rowem. Tyle, że jeśli użyłeś łyżeczki, jesteś również starszy.
conjugateprior

5
Powiązane (choć być może nie w oczywisty sposób): Jeśli środek jest tak wrażliwy, po co go używać?
gung - Przywróć Monikę

Odpowiedzi:


25

Rzadko, jeśli w ogóle, test parametryczny i test nieparametryczny faktycznie mają tę samą wartość zerową. Parametryczny test polega na sprawdzeniu średniej rozkładu, zakładając, że istnieją pierwsze dwa momenty. Test sumy rang Wilcoxona nie zakłada żadnych momentów, a zamiast tego testuje równość rozkładów. Jego implikowanym parametrem jest dziwna funkcja rozkładów, prawdopodobieństwo, że obserwacja z jednej próbki jest niższa niż obserwacja z drugiej. Możesz w pewnym sensie mówić o porównaniach między dwoma testami przy całkowicie określonym zeru identycznych rozkładów ... ale musisz rozpoznać, że dwa testy testują różne hipotezy.t

Informacje, które przynoszą testy parametryczne wraz z ich założeniem, pomagają poprawić moc testów. Oczywiście te informacje lepiej są słuszne, ale w dzisiejszych czasach istnieje niewiele dziedzin wiedzy ludzkiej, w których takie wstępne informacje nie istnieją. Ciekawym wyjątkiem, który wyraźnie mówi „nie chcę niczego zakładać”, jest sala sądowa, w której metody nieparametryczne są nadal popularne - i ma to sens dla aplikacji. Prawdopodobnie jest dobry powód, pomyślał pun, że Phillip Good jest autorem dobrych książek na temat zarówno statystyk nieparametrycznych, jak i statystyk na sali sądowej .

Istnieją również sytuacje testowe, w których nie masz dostępu do mikrodanych niezbędnych do testu nieparametrycznego. Załóżmy, że poproszono Cię o porównanie dwóch grup osób w celu oceny, czy jedna jest bardziej otyła niż druga. W idealnym świecie będziesz mieć pomiary wzrostu i masy ciała dla każdego, i możesz utworzyć test permutacji stratyfikujący według wzrostu. W mniej niż idealnym (tj. Rzeczywistym) świecie możesz mieć tylko średnią wysokość i średnią wagę w każdej grupie (lub mogą być pewne zakresy lub warianty tych cech na górze średnich próbek). Najlepszym rozwiązaniem jest obliczenie średniego BMI dla każdej grupy i porównanie ich, jeśli masz tylko środki; lub załóż dwuwymiarową normalną dla wzrostu i masy ciała, jeśli masz środki i wariancje (prawdopodobnie będziesz musiał wziąć korelację z niektórych danych zewnętrznych, jeśli nie pochodzi z twoimi próbkami),


3
Rozumiem, że w przypadku testowania nie masz tego samego null, choć nie jestem pewien, czy sens ma stwierdzenie, że null jest lepszy niż inny null. Ale co z przypadkiem przewidywania? Zupełnie inna historia, wciąż dylemat parametryczny vs. nieparametryczny.
en1

22

Jak napisali inni: jeśli warunki wstępne zostaną spełnione, test parametryczny będzie silniejszy niż test nieparametryczny.

W analogii zegarka niewodoodporny byłby o wiele dokładniejszy, gdyby nie zmokł. Na przykład Twój wodoodporny zegarek może być wyłączony o godzinę w jedną stronę, podczas gdy wodoodporny byłby dokładny ... i musisz złapać autobus po podróży raftingiem. W takim przypadku warto zabrać ze sobą zegarek odporny na wodę i upewnić się, że nie zmoknie.


Punkt bonusowy: metody nieparametryczne nie zawsze są łatwe. Tak, test permutacji alternatywny do testu jest prosty. Ale nieparametryczna alternatywa dla mieszanego modelu liniowego z wieloma dwustronnymi interakcjami i zagnieżdżonymi efektami losowymi jest nieco trudniejsza do skonfigurowania niż zwykłe wezwanie do nlme(). Zrobiłem to, wykorzystując testy permutacji i z mojego doświadczenia wynika, że ​​wartości p testów parametrycznych i permutacyjnych zawsze były dość blisko siebie, nawet jeśli reszty z modelu parametrycznego były dość nietypowe. Testy parametryczne są często zaskakująco odporne na odstępstwa od ich warunków wstępnych.


Wydaje się, że dominuje pogląd, że metody parametryczne mają większą moc, gdy ich założenia są spełnione. Ale jeśli tak jest, to dlaczego mamy wartości p do oceny wyników z obu podejść? Mam na myśli to, że jeśli test parametryczny odrzuca hipotezę zerową z prawdopodobieństwem co najmniej 99%, jak to jest lepsze od testu nieparametrycznego odrzucającego hipotezę zerową z prawdopodobieństwem 99%? Czy prawdopodobieństwo 0,99 jest różne w każdym przypadku? To nie miałoby sensu.
en 1

1
Hipotezy zerowe różnią się między testem parametrycznym a jego nieparametrycznym odpowiednikiem. W szczególności hipoteza zerowa dla testu parametrycznego zawiera konkretne parametryczne założenie dotyczące rozkładu statystyki testowej (które zwykle będzie również obliczane na różne sposoby dla dwóch testów) - dlatego w końcu nazywa się to „parametrycznym”! Zatem dwie wartości p mają tę samą nazwę, ale są obliczane na podstawie różnych statystyk testowych, które mają różne rozkłady pod różnymi hipotezami zerowymi.
S. Kolassa - Przywróć Monikę


3
@StephanKolassa, właściwie zacząłem pisać komentarz do twojej odpowiedzi i
dałem

12

Chociaż zgadzam się, że w wielu przypadkach techniki nieparametryczne są korzystne, istnieją również sytuacje, w których metody parametryczne są bardziej przydatne.

Skoncentrujmy się na dyskusji „dwóch prób t-test w porównaniu z testem sumy rang Wilcoxona” (w przeciwnym razie musimy napisać całą książkę).

  1. Przy małych grupach wielkości 2-3, tylko test t teoretycznie może osiągnąć wartości p poniżej 5%. W biologii i chemii takie grupy nie są niczym niezwykłym. Oczywiście delikatne jest stosowanie testu t w takich warunkach. Ale może to lepsze niż nic. (Ten punkt jest związany z problemem, że w idealnych okolicznościach test t ma większą moc niż test Wilcoxona).
  2. Przy ogromnych rozmiarach grup również test t może być postrzegany jako nieparametryczny dzięki Centralnemu twierdzeniu granicznemu.
  3. Wyniki testu t są zgodne z przedziałem ufności Studenta dla średniej różnicy.
  4. Jeśli wariancje znacznie różnią się w zależności od grupy, to wersja t testu Welcha próbuje wziąć to pod uwagę, podczas gdy test sumy rang Wilcoxona może się nie powieść, jeśli zostaną porównane środki (np. Prawdopodobieństwo błędu pierwszego rodzaju znacznie różni się od poziomu nominalnego ).

2
Nie zgadzam się z 1. Po prostu stosowanie procedury, ponieważ pozwala ona podjąć decyzję, nie jest naprawdę dobrym powodem, szczególnie gdy nie masz powodu, aby oczekiwać, że procedura będzie ważna. Jeśli masz mało danych lub nie masz ich wcale, po prostu osądzaj i nie udawaj, że są one oparte na rygorze.
dsaxton

5
Zgadzam się z Tobą. Jest to oczywiście jeden z powodów, dla których wyniki często nie są odtwarzalne, nawet jeśli są publikowane w czasopismach o najwyższym rankingu. Ale jakie opcje masz jako badacz, jeśli budżet dopuszcza tylko małe próbki?
Michael M

1
Re 4 i problemy ze stosowaniem Wilcoxona-Manna-Whitneya, gdy występują nierówne wariancje między grupami, istnieją metody nieparametryczne, które pozwalają na heteroscedastyczność: Wydaje mi się, że przypominam na przykład test Cliffa lub test Brunnera-Munzela. (Nie sądzę, abyśmy mieli dużo informacji na ich temat na tej stronie.)
Silverfish,

@Silverfish: Często używam metod Brunnera i myślę, że masz rację. Wątpię jednak, czy naprawdę porównują środki, z wyjątkiem silnych założeń dystrybucyjnych.
Michael M

1
@MichaelM Tak, oczywiście - sprowadza się to do pytania o parametryczne i nieparametryczne metody mające różne hipotezy.
Silverfish,

9

W testowaniu hipotez testy nieparametryczne często testują różne hipotezy, co jest jednym z powodów, dla których nie zawsze można po prostu zastąpić test nieparametryczny testem parametrycznym.

yxfafafa(x)=jot=1pβjotxjot


Tak, a to dodaje uprzedzenie modelu. Co to mówi o raportowanych przez badaczy wartościach p?
Cagdas Ozgenc

@dsaxton to, co mówisz, jest prawdą o testowaniu różnych hipotez, ale ludzie nadal interpretują je w ten sam sposób. Jest też regresja, w której wgląd między analizami nieparametrycznymi i parametrycznymi jest prawie taki sam.
en 1

@ cagdas-ozgenc Mówi, że wartości p są zależne od modelu. Ale nie jest jasne, jak mogłoby być inaczej ...
sprzężony przed

3
+1 za zauważenie, że nie mamy absolutnie żadnej szansy oszacowania czegoś wartościowego w regresji bez pewnych założeń dotyczących funkcji regresji.
conjugateprior

9

Modele półparametryczne mają wiele zalet. Oferują testy takie jak test Wilcoxona jako szczególny przypadek, ale umożliwiają oszacowanie współczynników efektu, kwantyli, średnich i prawdopodobieństw przekroczenia. Obejmują one dane podłużne i cenzurowane. Są wytrzymałe w przestrzeni Y i są niezmienne w transformacji, z wyjątkiem średnich szacunkowych. Zobacz http://biostat.mc.vanderbilt.edu/rms link do materiałów szkoleniowych, aby uzyskać szczegółowy przykład / studium przypadku.

tYYXX1X2). Przykłady obejmują model proporcjonalnego prawdopodobieństwa (przypadek szczególny: Wilcoxon i Kruskal-Wallis) oraz model proporcjonalnego hazardu (przypadek szczególny: log-rank i stratyfikowany test log-rank).

Y


1
Trochę z tym walczyłem. Czy uważasz test t za półparametryczny czy nieparametryczny? Z jednej strony zawsze zakładałem, że „szczypta” parametrów półparametrycznych jest następująca: weź „działający” model prawdopodobieństwa danych, oszacuj parametry w tym rozkładzie niezależnie od tego, czy rozkład jest poprawny, i popraw oszacowanie błędu, aby uwzględnić niepewność. (Zatem błędy oparte na kanapkach dla rozwiązań równań wyników Gaussa byłyby półparametrycznym testem T). Jednak półparametry prawie zawsze wymagają częściowego / warunkowania czegoś, tak jak w modelach Coxa.
AdamO

Dodam więcej opisu do mojej odpowiedzi, aby sobie z tym poradzić.
Frank Harrell,

6

Wśród wielu dostarczonych odpowiedzi chciałbym również zwrócić uwagę na statystyki bayesowskie. Niektórych problemów nie da się rozwiązać tylko na podstawie prawdopodobieństwa. Frequentist stosuje alternatywne rozumowanie, w którym „prawdopodobieństwo” odnosi się do alternatywnych wszechświatów, a alternatywne ramy wszechświata nie mają sensu, jeśli chodzi o wnioskowanie o stanie jednostki, takie jak wina lub niewinność przestępcy, czy też wąskie gardło częstotliwości genów w gatunki narażone na ogromne zmiany środowiskowe doprowadziły do ​​ich wyginięcia. W kontekście bayesowskim prawdopodobieństwo to „wiara”, a nie częstotliwość, którą można zastosować do tego, co już wytrąciło się.

Obecnie większość metod bayesowskich wymaga pełnego określenia modeli prawdopodobieństwa dla wcześniejszego i wyniku. I większość z tych modeli prawdopodobieństwa jest parametryczna. Zgodnie z tym, co mówią inni, nie muszą one być dokładnie poprawne, aby uzyskać znaczące podsumowania danych. „Wszystkie modele są nieprawidłowe, niektóre modele są przydatne”.

Istnieją oczywiście nieparametryczne metody bayesowskie. Mają one wiele statystycznych zmarszczek i, ogólnie rzecz biorąc, wymagają prawie wyczerpujących danych dotyczących populacji, aby mogły być sensownie wykorzystane.


6

Jedyny powód, dla którego odpowiadam pomimo wszystkich powyższych dobrych odpowiedzi, to fakt, że nikt nie zwrócił uwagi na główny powód, dla którego stosujemy testy parametryczne (przynajmniej w analizie danych fizyki cząstek). Ponieważ znamy parametryzację danych. Hه! To duża zaleta. Sprowadzasz swoje setki, tysiące lub miliony punktów danych do kilku parametrów, na których Ci zależy i które opisujesz swoją dystrybucję. Mówią ci o fizyce leżącej u podstaw (lub o czymkolwiek nauka daje twoje dane).

Oczywiście, jeśli nie masz pojęcia o podstawowej gęstości prawdopodobieństwa, nie masz wyboru: użyj testów nieparametrycznych. Testy nieparametryczne mają tę zaletę, że nie zawierają żadnych uprzedzeń, ale mogą być trudniejsze do wdrożenia - czasem znacznie trudniejsze.


5

Statystyka nieparametryczna ma swoje problemy! Jednym z nich jest nacisk na testowanie hipotez, często potrzebujemy oszacowań i przedziałów ufności, a umieszczenie ich w skomplikowanych modelach z parametrami nieparametrycznymi jest --- skomplikowane. Jest na ten temat bardzo dobry post na blogu, z dyskusją na stronie http://andrewgelman.com/2015/07/13/dont-do-the-wilcoxon/ Dyskusja prowadzi do tego drugiego postu, http: // notstatschat. tumblr.com/post/63237480043/rock-paper-scissors-wilcoxon-test , który jest zalecany z zupełnie innego punktu widzenia na Wilcoxon. Krótka wersja to: Wilcoxon (i inne testy rang) mogą prowadzić do nieprzechodniości.


4
Nie jestem pewien, czy przechodniość jest ostatecznością. Możesz odwrócić test Wilcoxona, aby uzyskać bardzo solidny i użyteczny przedział ufności estymatora lokalizacji.
Frank Harrell,

2
Nieprzechodniość ma swoje zalety w modelowaniu przyczynowym, ale w przypadku prostych dwóch przykładowych testów asocjacji nie wydaje mi się, żeby to naprawdę był problem. Ponadto nie widzę różnic w testowaniu / szacowaniu / przedziałach ufności między metodami nieparametrycznymi i parametrycznymi. Czasami przy solidnym oszacowaniu stosuje się działający model prawdopodobieństwa, aby odpowiednie oszacowanie parametryczne zapewniało sensowne podsumowanie danych (nawet jeśli nie jest to właściwy model prawdopodobieństwa jako taki). Być może możesz rozwinąć tę odpowiedź?
AdamO

2
Zwykle w teście Wilcoxona przyjmowane są pewne dodatkowe założenia, np. Dominacja stochastyczna jednej grupy nad drugą, że w przypadku prawdziwego odzyskania przechodniości.
Scortchi - Przywróć Monikę

3

Powiedziałbym, że statystyki nieparametryczne mają bardziej ogólne zastosowanie w tym sensie, że przyjmują mniej założeń niż statystyki parametryczne.

Niemniej jednak, jeśli zastosuje się statystyki parametryczne i podstawowe założenia zostaną spełnione, wówczas statystyki paramatryczne będą silniejsze niż parametry nieparametryczne.


2

Statystyki parametryczne są często sposobami na włączenie wiedzy zewnętrznej [do danych]. Na przykład wiesz, że rozkład błędów jest normalny i ta wiedza pochodzi z wcześniejszych doświadczeń lub z innych względów, a nie z zestawu danych. W takim przypadku, zakładając normalny rozkład, włączasz tę wiedzę zewnętrzną do oszacowań parametrów, co musi poprawić twoje oszacowania.

Na twojej analogii zegarka. Obecnie prawie wszystkie zegarki są wodoodporne, z wyjątkiem specjalnych elementów z biżuterią lub niezwykłych materiałów, takich jak drewno. Powód ich noszenia jest właśnie taki: są wyjątkowe. Jeśli chodziło Ci o wodoodporność, to wiele zegarków nie jest wodoodpornych. Powodem ich noszenia jest ich funkcja: nie nosisz zegarka dla nurka z zestawem i krawatem. Ponadto w dzisiejszych czasach wiele zegarków ma otwarte plecy, dzięki czemu możesz cieszyć się oglądaniem ruchu przez kryształ. Oczywiście te zegarki zwykle nie są wodoodporne.


1
Podoba mi się ta metafora! Pamiętam, jak jeden profesor powiedział nam, że powinniśmy wypróbować różne metody statystyczne w tej samej sprawie, aby sprawdzić, czy możemy uzyskać takie same wyniki.
Głęboka północ

2

To nie jest scenariusz testowania hipotez, ale może być dobrym przykładem odpowiedzi na twoje pytanie: rozważmy analizę skupień. Istnieje wiele „nieparametrycznych” metod klastrowania, takich jak hierarchiczne, K-średnie itp., Ale problemem zawsze jest to, jak ocenić, czy rozwiązanie klastrowania jest „lepsze”, niż inne możliwe rozwiązanie (i często istnieje wiele możliwych rozwiązań) . Każdy algorytm daje Ci to, co najlepsze, ale skąd wiesz, czy nie ma nic lepszego ...? Obecnie istnieją również parametryczne podejścia do klastrowania, tak zwane klastrowanie oparte na modelu, jak modele skończonej mieszanki. Za pomocą FMM budujesz model statystyczny opisujący rozkład danych i dopasowujesz je do danych. Gdy masz swój model, możesz ocenić prawdopodobieństwo danych w tym modelu, możesz użyć testów współczynnika prawdopodobieństwa, porównać AIC i użyć wielu innych metod sprawdzania dopasowania modelu i porównania modelu. Nieparametryczne algorytmy grupowania po prostu grupują dane przy użyciu niektórych kryteriów podobieństwa, a przy użyciu FMM pozwalają opisywać i próbować zrozumieć dane, sprawdzić, jak dobrze to pasuje, dokonać prognoz ... W praktyce podejścia nieparametryczne są proste, praca od razu po wyjęciu z pudełka i są całkiem dobre, podczas gdy FMM może być problematyczny, ale podejścia oparte na modelach często zapewniają bogatsze wyniki.


2

Prognozy i prognozy dla nowych danych są często bardzo trudne lub niemożliwe dla modeli nieparametrycznych. Na przykład mogę przewidzieć liczbę roszczeń gwarancyjnych na następne 10 lat, korzystając z modelu przeżycia Weibulla lub Lognormala, jednak nie jest to możliwe przy użyciu modelu Coxa lub Kaplana-Meiera.

Edycja: Pozwól mi być bardziej przejrzystym. Jeśli firma ma wadliwy produkt, często jest zainteresowana prognozą przyszłej stopy roszczeń gwarancyjnych i CDF na podstawie bieżących roszczeń gwarancyjnych i danych sprzedaży. Pomoże im to zdecydować, czy konieczne jest wycofanie. Nie wiem, jak to robisz za pomocą modelu nieparametrycznego.


7
Pozwolę sobie być innego zdania. Możesz użyć modelu Coxa do oszacowania kwantyli, średniej (jeśli najwyższa wartość Y jest nieocenzurowana) i wszelkiego rodzaju prawdopodobieństw. Brak możliwości prognozowania poza zakresem danych jest jednak problemem (jak wspomniałeś), ale możesz niebezpiecznie ekstrapolować dane.
Frank Harrell,

@FrankHarrell Tak, dobra uwaga, zawsze należy zachować ostrożność podczas ekstrapolacji.
Glen

Co z Random Forest, Deep Learning lub SVM? Pokonali większość, jeśli nie wszystkie metody parametryczne do prognozowania.
en1

2
Z wyjątkiem próby, aby drzewo decyzyjne nauczyło się ukośnej granicy
bill_e

1

Szczerze wierzę, że nie ma właściwej odpowiedzi na to pytanie. Sądząc z podanych odpowiedzi, konsensus jest taki, że testy parametryczne mają większą moc niż równoważniki nieparametryczne. Nie będę kwestionować tego poglądu, ale widzę go raczej jako hipotetyczny, a nie faktyczny punkt widzenia, ponieważ nie jest to coś wyraźnie nauczanego w szkołach i żaden recenzent nigdy nie powie ci „twój artykuł został odrzucony, ponieważ użyłeś testów nieparametrycznych”. To pytanie dotyczy czegoś, na co świat statystyki nie jest w stanie jednoznacznie odpowiedzieć, ale uznał to za coś oczywistego.

Moje osobiste zdanie jest takie, że preferencja parametryczna lub nieparametryczna ma więcej wspólnego z tradycją niż z czymkolwiek innym (z powodu braku lepszego terminu). Techniki parametryczne do testowania i przewidywania były pierwsze i miały długą historię, więc nie jest łatwo całkowicie je zignorować. W szczególności przewidywanie ma imponujące nieparametryczne rozwiązania, które są obecnie szeroko stosowane jako narzędzie pierwszego wyboru. Myślę, że jest to jeden z powodów, dla których techniki uczenia maszynowego, takie jak sieci neuronowe i drzewa decyzyjne, które z natury są nieparametryczne, zyskały w ostatnich latach dużą popularność.


3
3)/π95%

„Konsensus” oznacza „ogólne porozumienie”, a nie mój osobisty pogląd.
Digio,

2
Nie mówiłem o tym, czy stwierdzenie to reprezentuje twój osobisty pogląd, czy o zbiorowej mądrości innych, wskazując tylko, że stwierdzenie jest poprawne tylko wtedy, gdy spełnione są warunki niezbędne do testu parametrycznego . Gdy warunki się nie utrzymują, może nie być tak, że „testy parametryczne są silniejsze niż nieparametryczne”, aw rzeczywistości może być odwrotnie (czasami o bardzo szerokim zakresie).
Silverfish,

Touché! ..... +1
Digio,

0

Jest to kwestia siły statystycznej. Testy nieparametryczne mają zazwyczaj niższą moc statystyczną niż ich odpowiedniki parametryczne.


6
Testy parametryczne będą miały większą moc, gdy ich założenia zostaną spełnione. Gdy ich założenia nie są spełnione, testy nieparametryczne mogą być mocniejsze.
Gung - Przywróć Monikę

3
Ta odpowiedź jest bardzo krótka, a moc została omówiona w poprzednich odpowiedziach. Czy rozważysz to trochę?
Scortchi - Przywróć Monikę

4
Zysk mocy z testów parametrycznych jest niewielki w porównaniu z utratą mocy, jaką odczuwają, gdy ich założenia nie są spełnione.
Frank Harrell,

Frank, to zależy od testu, niektóre testy są bardziej odporne na naruszenie ich założeń.
Ukryty model Markowa

0

Wiele dobrych odpowiedzi już, ale jest kilka powodów, o których nie wspomniałem:

  1. Znajomość. W zależności od odbiorców wynik parametryczny może być znacznie bardziej znany niż w przybliżeniu równoważny wynik nieparametryczny. Jeśli obie dadzą podobne wnioski, znajomość jest dobra.

  2. Prostota. Czasami test parametryczny jest łatwiejszy do wykonania i zgłoszenia. Niektóre metody nieparametryczne wymagają dużej ilości komputera. Oczywiście komputery stały się znacznie szybsze i algorytmy również się poprawiły, ale .... dane stały się „większe”.

    1. Czasami to, co zwykle jest wadą testu parametrycznego, jest w rzeczywistości zaletą, chociaż jest to specyficzne dla poszczególnych par testów. Na przykład jestem generalnie zwolennikiem regresji kwantowej, ponieważ zakłada ona mniej założeń niż zwykłe metody. Ale czasami naprawdę musisz oszacować średnią, a nie medianę.
Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.