Powiedzmy, że dopasowuję regresję wielokrotną zmiennych objaśniających. Test t pozwoli mi sprawdzić, czy którykolwiek z nich jest znaczący ( ). Mogę zrobić częściowy F-test, aby sprawdzić, czy jakiś podzbiór z nich jest istotna ( H 0 : β í = β j = . . . = Β k = 0 ).
Często jednak widzę, że ktoś otrzymuje 5 wartości p z 5 testów t (zakładając, że ma 5 zmiennych towarzyszących) i utrzymuje tylko te o wartości p <0,05. To wydaje się trochę niepoprawne, ponieważ tak naprawdę powinna istnieć kontrola wielokrotnego porównania, nie? Czy naprawdę słuszne jest stwierdzenie, że coś w rodzaju i β 2 jest znaczące, ale β 3 , β 4 i β 5 nie są znaczące ?
W powiązanej uwadze powiedzmy, że uruchamiam 2 regresje na 2 osobnych modelach (inny wynik). Czy konieczne jest wielokrotne sprawdzenie porównania istotnych parametrów między tymi dwoma wynikami?
Edycja: Aby odróżnić od podobnego pytania, czy istnieje jakakolwiek inna interpretacja wartości p oprócz: „B_i jest (nie) znaczący przy dostosowywaniu do wszystkich pozostałych zmiennych towarzyszących”? Nie wydaje się, że ta interpretacja pozwala mi spojrzeć na każdy B_i i upuścić te mniej niż 0,5 (co jest podobne do drugiego postu).
Wydaje mi się, że pewnym sposobem na sprawdzenie, czy B_i i Y mają związek, byłoby uzyskanie wartości współczynnika korelacji p dla każdej zmiennej towarzyszącej, a następnie wykonanie multcomp (chociaż na pewno straciłoby to sygnał).
Na koniec, powiedzmy, że obliczyłem korelację między B1 / Y1, B2 / Y1 i B3 / Y1 (a więc trzy wartości p). Niepowiązane również zrobiłem korelację między T1 / Y2, T2 / Y2, T3 / Y2. Zakładam, że poprawna korekta Bonferroniego wyniesie 6 dla wszystkich 6 testów razem (zamiast 3 dla pierwszej grupy i 3 dla drugiej grupy - i w ten sposób otrzymam 2 „p” skorygowane wartości p).