Naprawdę uważam, że to dobre pytanie i zasługuje na odpowiedź. Podany link jest napisany przez psychologa, który twierdzi, że jakaś metoda domowego zaparzania jest lepszym sposobem analizy szeregów czasowych niż Box-Jenkins. Mam nadzieję, że moja próba odpowiedzi zachęci innych, którzy mają większą wiedzę na temat szeregów czasowych, do wniesienia wkładu.
Z jego wprowadzenia wygląda na to, że Darlington opowiada się za dopasowaniem modelu AR do najmniejszych kwadratów. Oznacza to, że jeśli chcesz dopasować model
do szeregu , możesz po prostu serię w szeregu za pomocą opóźnienie , opóźnienie i tak dalej do opóźnienia , przy użyciu zwykłej regresji wielokrotnej. Z pewnością jest to dozwolone; w R jest nawet opcją w funkcji. Przetestowałem to i zwykle daje podobne odpowiedzi do domyślnej metody dopasowania modelu AR w R.z t z t 1 2 k
zt= α1zt - 1+ ⋯ + αkzt - k+ εt
ztzt12)kar
Opowiada się również za regresją na rzeczach takich jak lub potęgach aby znaleźć trendy. Ponownie, jest to absolutnie w porządku. Wiele książek o seriach czasowych omawia to, na przykład Shumway-Stoffer i Cowpertwait-Metcalfe. Zazwyczaj analiza szeregów czasowych może przebiegać według następujących linii: znajdziesz trend, usuniesz go, a następnie dopasujesz model do reszt. t tzttt
Wygląda jednak na to, że opowiada się również za nadmiernym dopasowaniem, a następnie wykorzystuje zmniejszenie błędu średniego kwadratu między dopasowanymi seriami a danymi jako dowód, że jego metoda jest lepsza. Na przykład:
Wydaje mi się, że korelogramy są już przestarzałe. Ich głównym celem było umożliwienie pracownikom odgadnięcia, które modele najlepiej pasują do danych, ale szybkość współczesnych komputerów (przynajmniej w regresji, jeśli nie w dopasowaniu modeli szeregów czasowych) pozwala pracownikowi po prostu dopasować kilka modeli i zobaczyć dokładnie, jak każdy pasuje, mierzony średnim błędem do kwadratu. [Kwestia kapitalizacji przypadkowej nie ma znaczenia dla tego wyboru, ponieważ obie metody są równie podatne na ten problem.]
To nie jest dobry pomysł, ponieważ testem modelu ma być to, jak dobrze potrafi prognozować, a nie jak dobrze pasuje do istniejących danych. W swoich trzech przykładach stosuje „skorygowany błąd średniokwadratowy pierwiastka” jako swoje kryterium jakości dopasowania. Oczywiście, nadmierne dopasowanie modelu spowoduje, że oszacowanie błędu w próbie będzie mniejsze, więc jego twierdzenie, że jego modele są „lepsze”, ponieważ mają mniejsze RMSE, jest błędne.
Krótko mówiąc, ponieważ stosuje niewłaściwe kryterium oceny, jak dobry jest model, dochodzi do błędnych wniosków dotyczących regresji w porównaniu z ARIMA. Założę się, że gdyby zamiast tego przetestował zdolność predykcyjną modeli, ARIMA wypadłaby na pierwszym miejscu. Być może ktoś może spróbować, jeśli ma dostęp do książek, o których tu wspomina .
[Uzupełnienie: aby uzyskać więcej informacji na temat regresji, warto zapoznać się ze starszymi książkami z serii czasowych, które zostały napisane, zanim ARIMA stała się najbardziej popularna. Na przykład Kendall, Time-Series , 1973, rozdział 11 zawiera cały rozdział na temat tej metody i porównań z ARIMA.]