(To pytanie może wydawać się bardziej odpowiednie dla filozofii SE. Mam nadzieję, że statystycy mogą wyjaśnić moje nieporozumienia na temat wypowiedzi Boxa i Shmueli, dlatego zamieszczam je tutaj).
George Box (o sławie ARIMA) powiedział:
„Wszystkie modele są błędne, ale niektóre są przydatne”.
Galit Shmueli w swoim słynnym artykule „Wyjaśnić lub przewidzieć” twierdzi (i cytuje innych, którzy się z nią zgadzają), że:
Wyjaśnianie i przewidywanie nie jest tym samym i że niektóre modele dobrze sobie radzą z wyjaśnianiem, nawet jeśli źle sobie radzą z przewidywaniem.
Uważam, że te zasady są w jakiś sposób sprzeczne.
Jeśli model nie przewiduje dobrze, czy jest przydatny?
Co ważniejsze, jeśli model dobrze wyjaśnia (ale niekoniecznie dobrze przewiduje), musi być prawdziwy (tzn. Nie zły) w taki czy inny sposób. Więc w jaki sposób ta siatka z „wszystkimi modelami są złe” Boxa?
Wreszcie, jeśli model wyjaśnia dobrze, ale nie przewiduje dobrze, to w jaki sposób jest naukowy? Większość naukowych kryteriów rozgraniczających (weryfikacja, falsyfikacjonizm itp.) Sugeruje, że stwierdzenie naukowe musi mieć moc predykcyjną lub potocznie: teoria lub model jest poprawny tylko wtedy, gdy można go przetestować empirycznie (lub sfałszować), co oznacza, że musi przewidzieć przyszłe wyniki.
Moje pytania:
- Czy wypowiedź Boxa i idee Shmueli są rzeczywiście sprzeczne, czy też czegoś mi brakuje, np. Czy model nie ma mocy predykcyjnej, ale może być nadal przydatny?
- Jeśli stwierdzenia Boxa i Shmueli nie są ze sobą sprzeczne, to co to znaczy, że model jest zły i nie przewiduje dobrze, a mimo to ma moc wyjaśniającą? Mówiąc inaczej: jeśli ktoś odbiera zarówno poprawność, jak i zdolność przewidywania, co pozostanie z modelu?
Jakie weryfikacje empiryczne są możliwe, gdy model ma moc wyjaśniającą, ale nie moc predykcyjną? Shmueli wspomina takie rzeczy jak: użyj AIC dla wyjaśnienia i BIC dla przewidywania itp., Ale nie rozumiem, jak to rozwiązuje problem. W modelach predykcyjnych można użyć AIC, BIC, regularyzacji lub itp., Ale ostatecznie testowanie próbek i wydajność w produkcji decyduje o jakości modelu. Ale w przypadku modeli, które dobrze to wyjaśniają, nie widzę, w jaki sposób jakakolwiek funkcja straty może naprawdę ocenić model. W filozofii nauki istnieje pojęcie niedookreśleniaL L p < 0,05 p < 0,1 p < 0,01co wydaje się tutaj istotne: dla każdego zestawu danych zawsze można rozsądnie wybrać rozkład (lub mieszaninę rozkładów) i funkcję straty w taki sposób, aby pasowały one do danych (i dlatego można twierdzić, że to wyjaśniają). Co więcej, próg, pod którym powinien być poniżej, aby ktoś mógł twierdzić, że model odpowiednio wyjaśnia dane, jest arbitralny (rodzaj podobnych wartości p, dlaczego jest to a nie lub ?).
- W oparciu o powyższe, w jaki sposób można obiektywnie zweryfikować model, który dobrze wyjaśnia, ale nie przewiduje dobrze, ponieważ testowanie poza próbą nie jest możliwe?