Podział próbek może być może zmniejszyć problem z rozkładem statystyki, ale go nie usuwa.
Twój pomysł pozwala uniknąć problemu, że szacunki będą „zbyt bliskie” w stosunku do wartości populacji, ponieważ opierają się na tej samej próbie.
Nie unikasz problemu, który wciąż jest szacowany. Rozkład statystyki testowej nie jest tabelaryczny.
W tym przypadku zwiększa współczynnik odrzucania poniżej wartości zerowej, zamiast radykalnie go zmniejszać.
Lepszym wyborem jest skorzystanie z testu, w którym parametry nie są znane, na przykład Shapiro Wilk.
Jeśli jesteś poślubiony testem typu Kołmogorowa-Smirnowa, możesz podejść do testu Lillieforsa.
To znaczy, aby użyć statystyki KS, ale aby rozkład statystyki testowej odzwierciedlał wpływ oszacowania parametrów - symuluj rozkład statystyki testowej przy szacowaniu parametrów. (Nie jest już wolne od dystrybucji, więc potrzebujesz nowych tabel dla każdej dystrybucji).
http://en.wikipedia.org/wiki/Lilliefors_test
Liliefors użyli symulacji dla przypadku normalnego i wykładniczego, ale możesz to łatwo zrobić dla dowolnego określonego rozkładu; w czymś takim jak R to kwestia chwil, aby zasymulować 10 000 lub 100 000 próbek i uzyskać rozkład statystyki testowej poniżej wartości zerowej.
[Alternatywą może być rozważenie Andersona-Darlinga, który ma ten sam problem, ale który - sądząc z książki D'Agostino i Stephensa ( techniki dobroci dopasowania ) wydaje się być mniej wrażliwy na to. Możesz dostosować pomysł Lilliefors, ale sugerują oni stosunkowo prostą korektę, która wydaje się działać całkiem dobrze.]
Ale są jeszcze inne podejścia; istnieją rodziny płynnych testów dobroci dopasowania, np. (np. książka Raynera i Besta), które w wielu konkretnych przypadkach mogą poradzić sobie z oszacowaniem parametrów.
* efekt może być nadal dość duży - być może większy niż normalnie można by uznać za akceptowalny; Momo ma rację, wyrażając zaniepokojenie. Jeśli problemem jest wyższy poziom błędu typu I (i bardziej płaska krzywa mocy), może to nie być poprawa!