Nie.
Chociaż testy parametryczne mogą być mocniejsze, nie zawsze tak jest. Kiedy tak nie jest, zwykle dzieje się tak, gdy nie powinieneś przeprowadzać testów parametrycznych.
Ale nawet jeśli zbierasz próbki o przyzwoitych rozmiarach z normalnych rozkładów z jednakową wariancją, w których test parametryczny ma większą moc, nie gwarantuje to, że dla każdego konkretnego eksperymentu nieistotny test parametryczny oznacza nieistotny test nieparametryczny. Oto symulacja, która wykorzystuje losowe próbkowanie z rozkładów normalnych i stwierdza, że około 1,8% czasu, gdy p> 0,05 dla testu t, a p <0,05 dla testu Wilcoxona.
nsim <- 10000
n <- 50
cohensD <- 0.2
Y <- replicate(nsim, {
y1 <- rnorm(n, 0, 1); y2 <- rnorm(n, cohensD, 1)
tt <- t.test(y1, y2, var.equal = TRUE)
wt <- wilcox.test(y1, y2)
c(tt$p.value, wt$p.value)})
sum(Y[1,] > 0.05 & Y[2,] < 0.05) / nsim
Można zauważyć, że w tej symulacji moc testu parametrycznego jest większa niż testu nieparametrycznego (chociaż są one podobne).
sum(Y[1,] < 0.05) / nsim #t-test power
sum(Y[2,] < 0.05) / nsim #wilcox.test power
Ale, jak pokazano powyżej, nie oznacza to, że we wszystkich przypadkach, w których test parametryczny nie znajdzie skutku, test nieparametryczny również się nie powiedzie.
Możesz grać w tę symulację. Zrób n dość duże, powiedzmy 1000, i zmniejsz rozmiar efektu, powiedzmy 0,02 (potrzebujesz małej mocy, aby mieć dużo próbek, w których test się nie powiedzie). Możesz mieć prawie całkowitą gwarancję, że n wynosi 1000, że żadna próbka nie zostanie odrzucona z powodu nienormalności (przez inspekcję, a nie głupi test) lub nie będziesz mieć podejrzanych wartości odstających. Mimo to niektóre testy parametryczne okazują się nieistotne, podczas gdy testy nieparametryczne są znaczące.
Możesz także spojrzeć na Hunter i May (1993).
Hunter, MA, i May, RB (1993). Kilka mitów dotyczących testów parametrycznych i nieparametrycznych. Canadian Psychology, 34 (4), 384–389.