Regularyzacja modeli ARIMA


15

Zdaję sobie sprawę z rodzaju regularyzacji typu LASSO, grzbietu i siatki elastycznej w modelach regresji liniowej.

Pytanie:

  1. Czy ten (lub podobny) rodzaj oszacowania podlegającego sankcji można zastosować do modelowania ARIMA (z niepustą częścią MA)?

Przy budowaniu modeli ARIMA wydaje się, że zwykle bierze się pod uwagę wstępnie wybraną kolejność maksymalnego opóźnienia ( pmax , qmax ), a następnie wybrać optymalną kolejność ppmax i qqmax np. Poprzez zminimalizowanie AIC lub AICc. Ale czy zamiast tego można zastosować regularyzację?

Moje dalsze pytania to:

  1. Czy możemy zawrzeć wszystkie terminy do ( , q m a xpmaxqmax ), ale ukarać wielkość współczynników (potencjalnie aż do zera)? Czy to miałoby sens?
  2. Jeśli tak, czy zostało to zaimplementowane w R lub innym oprogramowaniu? Jeśli nie, na czym polegał problem?

Nieco powiązany post można znaleźć tutaj .


1
+1 za bardzo dobre pytanie. Ponieważ P, Q są wartościami dyskretnymi, bardziej efektywne może być przeszukiwanie siatki w celu znalezienia optymalnej kolejności P, Q?
prezenter

2
Cieszę się, że ci się podobało! Tak, wyszukiwanie siatki jest jedną z opcji w ramach, które nazywam „zwykłą”. Można przeszukiwać siatkę możliwych kombinacji od ( 0 , 0 ) do ( p m a x , q m a x ) . Jest to jednak nadal część „zwykłych ram”. Alternatywnie, jestem zainteresowany utrzymywaniem wszystkich opóźnień, ale karaniem wielkości współczynników. (p,q)(0,0)(pmax,qmax)
Richard Hardy

1
columbia.edu/~sn2294/papers/forecast.pdf Podobno LASSO działa lepiej, ponieważ można pominąć pewne opóźnienia zamiast ustawiać maksimum. To samo może zrobić AIC, ale wtedy staje się drogie obliczeniowo.
Cagdas Ozgenc

1
@CagdasOzgenc, przejrzałem gazetę, ale wydaje się, że nie dotyczy ona regularyzacji stosowanej w modelach ARIMA (chociaż wspomina modele ARMA w kontekście kryteriów informacyjnych). Czy mógłbyś wskazać, która część artykułu dotyczy moich pytań?
Richard Hardy

1
5.3 tabela zawiera modele ARMAX. Wyniki dotyczą modeli ARMA.
Cagdas Ozgenc

Odpowiedzi:


9

Odpowiedź na pytanie 1.

Chen i Chan „Wybór podzestawu ARMA za pomocą adaptacyjnego Lasso” (2011) * wykorzystują obejście, aby uniknąć obliczeniowo wymaganego oszacowania maksymalnego prawdopodobieństwa. Powołując się na papier, oni

zaproponować znalezienie optymalnego podzbiorowego modelu ARMA poprzez dopasowanie adaptacyjnej regresji Lasso szeregów czasowych na własnych opóźnieniach i reszt, które są uzyskiwane z dopasowania długiej autoregresji do y tytyt s. <...> [W] łagodnych warunkach regularności proponowana metoda osiąga właściwości wyroczni, a mianowicie identyfikuje poprawny model podzestawu ARMA z prawdopodobieństwem zmierzającym do jednego, gdy wielkość próbki wzrasta do nieskończoności, a <...> estymatory niezerowych współczynników są asymptotycznie normalne z rozkładem granicznym takim samym, jak w przypadku, gdy współczynniki zerowe są znane z góry.

Opcjonalnie sugerują oszacowanie maksymalnego prawdopodobieństwa i diagnostykę modelu dla wybranych podzbiorów modeli ARMA.


Wilms i in. „Rzadka identyfikacja i oszacowanie wielowymiarowych wektorowych autoregresyjnych średnich ruchomych” (2017) robi jeszcze więcej, niż prosiłem. Zamiast jednowymiarowego modelu ARIMA, biorą wektor ARMA (VARMA) w wysokich wymiarach i używają L1 karę estymacji i tyle wybór zamówienia. Przedstawiają algorytm szacowania i opracowują pewne asymptotyczne wyniki.

W szczególności stosują dwuetapową procedurę. Rozważ model VARMA który należy oszacować, ale rzędy opóźnień p i q są nieznane.

yt=l=1pΦlytl+m=1qΘmεtm+εt
pq
  • W etapie 1 aproksymują model VARMA za pomocą modelu VAR wyższego rzędu i szacują go za pomocą estymatora hierarchicznego VAR, który nakłada opartą na opóźnieniu hierarchiczną karę grupowo-lasso na parametry autoregresyjne.
    (Kolejność opóźnień jest ustawiona na . Równania modelu są szacowane łącznie, a norma Frobeniusa błędów| | y - y | | F 2 zmniejszają hierarchicznej grupowego lasso kary na współczynniki regresji). Uzyskać one resztki ε :=y - y być stosowane jako zastępcze dla prawdziwych błędów w etapie 2.1.5T||yy^||2F
    ε^:=yy^

  • W etapie 2, to oszacowanie modelu varX gdzie X oznacza opóźnione pozostałości z etapu 1. To znaczy, że model MINIC VARMA ale używa oszacowano reszty zamiast rzeczywistych błędów, co pozwala na zastosowanie tej samej estymatora (hierarchiczna grupy-lasso) znowu tak jak w etapie 1. ( p i q

    yt=l=1p^Φlytl+m=1q^Θmε^tm+ut,

    p^q^1.5T

Podejście Wilmsa i in. jest zaimplementowany w pakiecie R „bigtime” .


Bibliografia


* Dzięki @hejseb za link.


2
Ten dokument roboczy jest bardzo świeży, opublikowany wczoraj na arXiv.
Richard Hardy

Czy jest jakaś implementacja w Pythonie lub R?
David Masip

@DavidMasip, zobacz zaktualizowany post dotyczący implementacji R.
Richard Hardy,
Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.