Regolarizzazione per i modelli ARIMA


15

Sono a conoscenza del tipo di regolarizzazione LASSO, cresta e rete elastica nei modelli di regressione lineare.

Domanda:

  1. Questo (o un simile) tipo di stima penalizzata può essere applicato alla modellazione ARIMA (con una parte MA non vuota)?

Nella costruzione di modelli ARIMA, sembra consueto considerare un ordine di ritardo massimo preselezionato ( , ) e quindi scegliere un ordine ottimale e q \ leqslant q_ {max} ad es. minimizzando AIC o AICc. Ma si potrebbe usare invece la regolarizzazione?pmaxqmaxppmaxqqmax

Le mie ulteriori domande sono:

  1. Potremmo includere tutti i termini fino a ( pmax , qmax ) ma penalizzare la dimensione dei coefficienti (potenzialmente fino a zero)? Avrebbe senso?
  2. Se lo fosse, è stato implementato in R o altro software? In caso contrario, qual è stato il problema?

Un post in qualche modo correlato può essere trovato qui .


1
+1 per un'ottima domanda. Poiché P, Q sono valori discreti, potrebbe essere più efficiente eseguire una ricerca nella griglia per trovare l'ordine ottimale di P, Q?
meteorologo

2
Sono contento che ti sia piaciuto! Sì, una ricerca in griglia è una delle opzioni nel quadro che definisco "la solita". Ci si può cercare su una griglia di possibili combinazioni di (p,q) da (0,0) a (pmax,qmax) . Tuttavia, questo fa ancora parte del "solito quadro". In alternativa, sono interessato a mantenere tutti i ritardi, ma a penalizzare la dimensione dei coefficienti.
Richard Hardy,

1
columbia.edu/~sn2294/papers/forecast.pdf Presumibilmente LASSO funziona meglio in quanto è possibile saltare alcuni ritardi invece di mettere al massimo. Lo stesso può essere fatto dall'AIC, ma diventa costoso dal punto di vista computazionale.
Cagdas Ozgenc,

1
@CagdasOzgenc, ho sfogliato il documento ma non sembra avere a che fare con la regolarizzazione applicata ai modelli ARIMA (anche se menziona i modelli ARMA nel contesto dei criteri di informazione). Potresti indicare quale parte del documento è pertinente per le mie domande?
Richard Hardy,

1
5.3 la tabella contiene i modelli ARMAX. I risultati si applicano ai modelli ARMA.
Cagdas Ozgenc,

Risposte:


9

Risposta alla domanda 1.

Chen & Chan "Sottoinsieme di selezione ARMA tramite il lazo adattivo" (2011) * usa una soluzione alternativa per evitare la stima della massima verosimiglianza esigente dal punto di vista computazionale. Citando il giornale, loro

proporre di trovare un modello ARMA di sottoinsieme ottimale inserendo una regressione adattiva del lasso delle serie sui propri ritardi e quelle dei residui che si ottengono una lunga autoregressione a s. <...> [U] in condizioni di regolarità lievi, il metodo proposto raggiunge le proprietà dell'oracolo, ovvero identifica il modello ARMA del sottoinsieme corretto con probabilità che tende a uno quando le dimensioni del campione aumentano all'infinito e <...> il gli stimatori dei coefficienti diversi da zero sono asintoticamente normali con la distribuzione limitante la stessa di quella quando i coefficienti zero sono noti a priori.ytyt

Facoltativamente, suggeriscono la stima della massima verosimiglianza e la diagnostica del modello per i modelli ARMA del sottoinsieme selezionato.


Wilms et al. "Identificazione e stima sparse di medie mobili auto-regressive vettoriali ad alta dimensione" (2017) fanno ancora di più di quanto mi chiedessi. Invece di un modello ARIMA univariato, prendono un ARMA vettoriale (VARMA) in dimensioni elevate e usano una penalità per la stima e la selezione dell'ordine di ritardo. Presentano l'algoritmo di stima e sviluppano alcuni risultati asintotici.L1

In particolare, impiegano una procedura in due fasi. Considera un modello VARMA che deve essere stimato, ma il ritardo ordini e sono uknown.

yt=l=1pΦlytl+m=1qΘmεtm+εt
pq
  • Nella fase 1, approssimano il modello VARMA con un modello VAR di alto ordine e lo stimano utilizzando uno stimatore VAR gerarchico che posiziona una penalità di lazo di gruppo gerarchica basata su ritardo sui parametri autoregressivi.
    (L'ordine di ritardo è impostato su . Le equazioni del modello sono stimate congiuntamente e la norma Frobenius degli errori è minimizzata con un gruppo gerarchico -lasso penalità sui coefficienti di regressione.) Ottenono i residui da utilizzare come proxy per i veri errori nella Fase 2.1.5T||yy^||2F
    ε^:=yy^

  • Nella fase 2, stimano un modello VARX in cui X rappresenta i residui ritardati della fase 1. Cioè, minicono un modello VARMA ma usano i residui stimati al posto degli errori veri, che consente di applicare nuovamente lo stesso stimatore (gruppo gerarchico-lasso) proprio come nello stage 1. ( e sono impostati su .)

    yt=l=1p^Φlytl+m=1q^Θmε^tm+ut,

    p^q^1.5T

L'approccio di Wilms et al. è implementato nel pacchetto R "bigtime" .


Riferimenti


* Grazie a @hejseb per il link.


2
Questo documento di lavoro è molto fresco, pubblicato su arXiv proprio ieri.
Richard Hardy,

C'è qualche implementazione in Python o R?
David Masip,

@DavidMasip, vedi il post aggiornato per un'implementazione R.
Richard Hardy,
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.