Bardzo interesujące pytanie, oto moje zdanie na ten temat.
Chodzi o kodowanie informacji, a następnie obrócenie korby bayesowskiej. Wydaje się to zbyt piękne, aby mogło być prawdziwe - ale oba są trudniejsze niż się wydaje.
Zaczynam od zadania pytania
Jakie informacje są wykorzystywane, gdy martwimy się o wiele porównań?
Mogę coś wymyślić - pierwszy to „pogłębianie danych” - testuj „wszystko”, aż dostaniesz wystarczającą liczbę pozytywnych / negatywnych wyników (sądzę, że prawie każda osoba przeszkolona w statystykach byłaby narażona na ten problem). Masz również mniej złowrogi, ale w zasadzie ten sam „Mam tyle testów do uruchomienia - na pewno nie wszystko może być poprawne”.
Po zastanowieniu się nad tym zauważam, że nie słyszy się zbyt wiele o konkretnych hipotezach lub konkretnych porównaniach. Chodzi o „kolekcję” - to powoduje, że myślę o wymienności - porównywana hipoteza jest w pewnym sensie „podobna” do siebie. A jak zakodujesz wymienność w analizie bayesowskiej? - hiper-priory, modele mieszane, efekty losowe itp. !!!
Ale wymienność pozwala tylko na części. Czy wszystko jest wymienne? A może masz „rzadkość” - na przykład tylko kilka niezerowych współczynników regresji z dużą pulą kandydatów. Modele mieszane i normalnie rozmieszczone efekty losowe nie działają tutaj. Utkną one pomiędzy szumem zgniatania a pozostawieniem nietkniętych sygnałów (np. W twoim przykładzie utrzymaj parametry „prawda” locationB i locationC równe, i ustaw „parametr true” dowolnie duży lub mały i obserwuj, jak zawodzi standardowy mieszany model liniowy.) . Ale można to naprawić - np. Przy pomocy priorów z „kolcami i płytami” lub priorów z „podkowy”.
Tak naprawdę chodzi bardziej o to, aby opisać, o jakiej hipotezie mówisz, i uzyskać jak najwięcej znanych cech odzwierciedlonych w przeszłości i prawdopodobieństwie. Podejście Andrew Gelmana jest po prostu sposobem na niejawną obsługę szerokiej klasy wielu porównań. Podobnie jak najmniejsze kwadraty i normalne rozkłady zwykle działają dobrze w większości przypadków (ale nie wszystkie).
Jeśli chodzi o to, jak to robi, możesz pomyśleć o rozumowaniu osoby w następujący sposób - grupa A i grupa B mogą mieć ten sam środek - spojrzałem na dane, a środki są „bliskie” - stąd, aby uzyskać lepsze oszacowanie w obu przypadkach powinienem zebrać dane, ponieważ początkowo sądziłem, że mają one ten sam środek. - Jeśli nie są takie same, dane dostarczają dowodów, że są „bliskie”, więc łączenie „trochę” nie zaszkodzi mi tak bardzo, jeśli moja hipoteza była błędna (a la wszystkie modele są błędne, niektóre są przydatne)
Zauważ, że wszystkie powyższe zawiasy w początkowej przesłance „mogą być takie same”. Zabierz to i nie ma uzasadnienia dla łączenia. Prawdopodobnie można również zobaczyć sposób myślenia o testach w „rozkładzie normalnym”. „Najprawdopodobniej zero”, „jeśli nie zero, najprawdopodobniej blisko zera”, „ekstremalne wartości są mało prawdopodobne”. Rozważ tę alternatywę:
- średnie grupy A i grupy B mogą być równe, ale mogą być również drastycznie różne
W takim razie argument o „odrobinie puli” jest bardzo złym pomysłem. Lepiej jest wybrać sumowanie całkowite lub zerowanie. Znacznie bardziej jak Cauchy, kolec i płyta, rodzaj sytuacji (dużo masy wokół zera i dużo masy dla ekstremalnych wartości)
Całe wielokrotne porównania nie muszą być rozpatrywane, ponieważ podejście bayesowskie obejmuje informacje, które prowadzą nas do zmartwień o wcześniejsze i / lub prawdopodobieństwo . W pewnym sensie jest to przypomnienie, aby właściwie przemyśleć, jakie informacje są dla Ciebie dostępne i upewnić się, że uwzględniłeś je w swojej analizie.