Kiedy ludzie wdrażają testy permutacji, aby porównać pojedynczą próbkę ze średnią (np. Jak w przypadku testu t permutacji), jak postępuje się ze średnią? Widziałem implementacje, które pobierają średnią i próbkę do testu permutacji, ale nie jest jasne, co tak naprawdę robią pod maską. Czy jest jakiś sensowny sposób przeprowadzenia testu permutacji (np. Testu t) dla jednej próbki w porównaniu z zakładaną średnią? A może alternatywnie, po prostu domyślnie przeprowadzają test bez permutacji pod maską? (np. pomimo wywołania funkcji permutacji lub ustawienia flagi testu permutacji, domyślnie standardowy test t lub podobna funkcja)
W standardowym teście permutacji z dwiema próbkami jedna miałaby dwie grupy i losowo przypisywała etykiety. Jak to się jednak robi, gdy jedna „grupa” jest zakładanym środkiem? Oczywiście zakładana średnia nie ma sama w sobie wielkości próby. Więc jaki jest typowy sposób pracy ze środkiem w formacie permutacji? Czy zakłada się, że „średnia” próba jest pojedynczym punktem? Próbka równej wielkości z grupą próbek? Próbka o nieskończonej wielkości?
Biorąc pod uwagę, że zakładany środek jest, no cóż, zakładany - powiedziałbym, że technicznie ma on nieskończone poparcie lub jakiekolwiek wsparcie, które chcesz dla niego przyjąć. Jednak żadne z nich nie jest bardzo przydatne do rzeczywistych obliczeń. Próbka o jednakowej wielkości z wartościami równymi średniej wydaje się być czasem wykonywana przy niektórych testach (np. Po prostu wypełniasz drugą połowę par założoną lokalizacją). Ma to trochę sensu, ponieważ jest to próbka o równej długości, którą zobaczyłbyś, gdyby założona średnia była poprawna bez wariancji.
Moje pytanie brzmi zatem: czy w praktyce ludzie faktycznie emulują randomizację etykiet w stylu testu permutacji, gdy drugi zestaw jest wartością średnią (lub podobną abstrakcyjną wartością założoną)? Jeśli tak, w jaki sposób ludzie radzą sobie z randomizacją etykiet, kiedy to robią?