Idea adaptacyjnej analizy danych polega na tym, że zmieniasz swój plan analizowania danych, gdy dowiadujesz się więcej na ten temat. W przypadku eksploracyjnej analizy danych (EDA) jest to ogólnie dobry pomysł (często szukasz nieprzewidzianych wzorców w danych), ale w przypadku badania potwierdzającego jest to powszechnie akceptowane jako bardzo błędna metoda analizy (chyba że wszystkie kroki są jasno określone i odpowiednio zaplanowane w zaawansowany sposób).
To powiedziawszy, analiza danych adaptacyjnych jest zwykle liczbą badaczy, którzy faktycznie przeprowadzają swoje analizy, ku przerażeniu statystyk. Jako taki, jeśli można to zrobić w sposób prawidłowy statystycznie, zrewolucjonizuje to praktykę statystyczną.
Poniższy artykuł naukowy twierdzi, że znalazł metodę takiego postępowania (przepraszam za zapłatę, ale jeśli jesteś na uniwersytecie, prawdopodobnie masz dostęp): Dwork i in., 2015, The wielokrotnego użytku utrapienie: Zachowanie ważności w adaptacyjnej analizie danych .
Osobiście zawsze byłem sceptyczny wobec artykułów statystycznych publikowanych w Science , a ten nie jest inny. W rzeczywistości po dwukrotnym przeczytaniu artykułu, w tym materiału uzupełniającego, nie rozumiem (wcale), dlaczego autorzy twierdzą, że ich metoda zapobiega nadmiernemu dopasowaniu.
Rozumiem, że mają zbiór danych wstrzymania, którego użyją ponownie. Wydaje się, że twierdzą oni, że „zniekształcają” wyniki analizy potwierdzającej w zbiorze danych wstrzymania, zapobiegnie się nadmiernemu dopasowywaniu (warto zauważyć, że wydaje się, że zakłócenia powodują tylko szum, jeśli obliczona statystyka danych treningowych jest wystarczająco daleko z obliczonej statystyki na podstawie danych wstrzymania ). O ile mi wiadomo, nie ma żadnego prawdziwego powodu, aby zapobiec nadmiernemu dopasowaniu.
Czy mylę się co do tego, co proponują autorzy? Czy przeoczam jakiś subtelny efekt? Czy też Science poparł najgorszą jak dotąd praktykę statystyczną?