Niech będzie wartością losową z rozkładu 1 i niech będzie wartością losową z rozkładu 2. Myślałem, że hipoteza zerowa dla testu Manna-Whitneya to .
Jeśli przeprowadzę symulacje testu Manna-Whitneya na danych z rozkładów normalnych z jednakowymi średnimi i równymi wariancjami, przy , otrzymam wskaźniki błędu typu I, które są bardzo zbliżone do 0,05. Jeśli jednak uczynię wariancje nierównymi (ale pozostawiam średnie równe), odsetek symulacji, w których odrzucona jest hipoteza zerowa, będzie większy niż 0,05, czego się nie spodziewałem, ponieważ nadal obowiązuje. Dzieje się tak, gdy używam w R, niezależnie od tego, czy mam , albo .wilcox.test
exact=TRUE
exact=FALSE, correct=TRUE
exact=FALSE, correct=FALSE
Czy hipoteza zerowa jest czymś innym niż to, co napisałem powyżej, czy może po prostu test jest niedokładny pod względem błędu typu I, jeśli wariancje są nierówne?