Rappresentazione dello spazio degli stati di ARMA (p, q) da Hamilton


11

Ho letto Hamilton capitolo 13 e ha la seguente rappresentazione dello spazio degli stati per un ARMA (p, q). Sia Quindi il processo ARMA (p, q) è il seguente: \ begin {align} y_t - \ mu & = \ phi_1 (y_ {t-1} - \ mu) + \ phi_2 (y_ {t-2} - \ mu) + ... + \ phi_3 (y_ {t-3} - \ mu) \\ & + \ epsilon_t + \ theta_1 \ epsilon_ {t-1} +. .. + \ theta_ {r-1} \ epsilon_ {t-r + 1}. \ end {align} Quindi, definisce l'equazione di stato come segue:r=max(p,q+1)

ytμ=ϕ1(yt1μ)+ϕ2(yt2μ)+...+ϕ3(yt3μ)+ϵt+θ1ϵt1+...+θr1ϵtr+1.

ξt+1=[ϕ1ϕ2ϕr1ϕr1000000010]ξt+[ϵt+100]

e l'equazione di osservazione come:

yt=μ+[1θ1θ2θr1]ξt.

Non capisco cosa sia ξt in questo caso. Perché nella sua rappresentazione AR (p) è [ytμyt1μytp+1μ] e nella sua rappresentazione MA (1) è [ϵtϵt1] .

Qualcuno potrebbe spiegarmi un po 'meglio?

Risposte:


10

Hamilton mostra che questa è una rappresentazione corretta nel libro, ma l'approccio può sembrare un po 'controintuitivo. Consentitemi quindi di dare prima una risposta di alto livello che motiva la sua scelta di modello e quindi elabori un po 'la sua derivazione.

Motivazione :

Come dovrebbe essere chiaro dalla lettura del capitolo 13, ci sono molti modi per scrivere un modello dinamico nella forma dello spazio degli stati. Dovremmo quindi chiederci perché Hamilton abbia scelto questa particolare rappresentazione. Il motivo è che questa rappresentazione mantiene bassa la dimensionalità del vettore di stato. Intuitivamente, potresti pensare (o almeno lo farei io) che il vettore di stato per un ARMA ( , ) debba essere almeno della dimensione . Dopotutto, osservando dire , non possiamo dedurre il valore di . Tuttavia mostra che possiamo definire la rappresentazione dello spazio degli stati in un modo intelligente che lascia il vettore di stato della dimensione al massimoq p + q y t - 1 ϵ t - 1 r = max { p , q + 1 } p qpqp+qyt1ϵt1r=max{p,q+1}. Mantenere bassa la dimensionalità dello stato può essere importante per l'implementazione computazionale, immagino. Si scopre che la sua rappresentazione nello spazio degli stati offre anche una buona interpretazione di un processo ARMA: lo stato non osservato è un AR ( ), mentre la parte MA ( ) sorge a causa di un errore di misurazione.pq

Derivazione :

Ora per la derivazione. Prima nota che, usando la notazione dell'operatore lag, l'ARMA (p, q) è definito come: dove lasciamo per e per e omettiamo poiché è almeno . Quindi tutto ciò che dobbiamo mostrare è che le sue equazioni di stato e osservazione implicano l'equazione sopra. Lascia che il vettore di stato sia Ora guarda il equazione di stato. Puoi controllare che le equazioni da aϕ j = 0 j > p θ j = 0 j > q θ r r q + 1ξ t = { ξ 1 , t , ξ 2 , t , , ξ r , t } 2 r t + ϕ 2 ξ 2 , t + + ϕ

(1ϕ1LϕrLr)(ytμ)=(1+θ1L++θr1Lr1)ϵt
ϕj=0j>pθj=0j>qθrrq+1
ξt={ξ1,t,ξ2,t,,ξr,t}
2rsposta semplicemente le voci su un punto avanti e scarta nel vettore di stato in . La prima equazione, che definisce è quindi quella pertinente. Scrivendolo: Poiché il secondo elemento di è il primo elemento di e il terzo elemento di è il primo elemento di ξ i - 1 , t + 1 ξ r , t t + 1 ξ i , t + 1 ξ 1 , t + 1 = ϕ 1 ξ 1 ,ξi,tξi1,t+1ξr,tt+1ξi,t+1
ξ1,t+1=ϕ1ξ1,t+ϕ2ξ2,t++ϕrξr,t+ϵt+1
ξtξt1ξtξt2e così via, possiamo riscriverlo, usando la notazione dell'operatore lag e spostando il polinomio di ritardo sul lato sinistro (equazione 13.1.24 in H.): Quindi lo stato nascosto segue un processo autoregressivo. Allo stesso modo, l'equazione di osservazione è o Questo non assomiglia molto ad un ARMA finora, ma ora arriva il bella parte: moltiplica l'ultima equazione per :
(1ϕ1LϕrLr)ξ1,t+1=ϵt+1
yt=μ+ξ1,t+θ1ξ2,t++θr1ξr1,t
ytμ=(1+θ1L++θr1Lr1)ξ1,t
(1ϕ1LϕrLr)
(1ϕ1LϕrLr)(ytμ)=(1+θ1L++θr1Lr1)(1ϕ1LϕrLr)yt
Ma dall'equazione di stato (ritardata di un punto), abbiamo ! Quindi quanto sopra equivale a che è esattamente quello che dovevamo mostrare! Quindi il sistema di osservazione dello stato rappresenta correttamente l'ARMA (p, q). Stavo davvero parafrasando Hamilton, ma spero che questo sia utile comunque.(1ϕ1LϕrLr)ξ1,t=ϵt
(1ϕ1LϕrLr)(ytμ)=(1+θ1L++θr1Lr1)ϵt

Tuttavia, non sono totalmente venduto all'interpretazione dello stato. Quando si scrive la prima riga dell'equazione di transizione dello stato, sembra un'equazione in conflitto con il modello assunto. Inoltre trovo strano che tu presumi che i dati osservati siano allo stesso tempo nascosti / latenti.
Taylor,

Hai ragione, lo stato non è effettivamente lo stesso di . Grazie per averlo segnalato. L'ho corretto, ora dovrebbe andare bene. A proposito, in generale avremmo potuto osservare le variabili nel vettore di stato, vedere ad esempio l'esempio AR (p). Lì la variabile nascosta può essere considerata come il valore del periodo successivo, . ytyt+1
Matthias Schmidtblaicher,

Grazie! Ma ho ancora al confuso su cosa è in questo spazio di stato. Non per esempio la sua definizione di nell'equazione 13.1.15 e 13.1.14 per e processo AR (p) e MA (1). La mia confusione è, se lo metto in matlab, quali numeri sto ricevendo in ? ξξξ
dleal l'

Ciò che confonde qui è che la modellazione dello spazio degli stati riguarda uno stato nascosto, mentre con i processi ARMA non pensiamo alle variabili come nascoste. La rappresentazione dello spazio degli stati e le tecniche di filtro (Kalman) sono motivate filtrando lo stato non osservato. Per i processi ARMA, utilizziamo semplicemente la formulazione di modelli dello spazio degli stati in modo da poter stimare i parametri utilizzando il filtro Kalman. Quindi in qualche modo arbitrariamente definiamo lo stato nascosto in 13.1.4 come osservazione del periodo successivo mentre in 13.1.22, lo stato è una nuova variabile che non appare nel modello originale. yt+1
Matthias Schmidtblaicher, l'

Per rispondere alla tua domanda su Matlab: se inizi da un ARMA (p, q), non è una variabile che appare in quel modello. Tuttavia, la rappresentazione dello spazio degli stati in realtà offre una diversa interpretazione dell'ARMA (p, q): lo stato nascosto potrebbe essere la variabile che ti interessa e la struttura MA (q) sorge a causa di un errore di misurazione. Puoi scrivere un AR (1) e aggiungere un po 'di rumore bianco per vedere che sorge una struttura ARMA. ξ
Matthias Schmidtblaicher,

8

È lo stesso di cui sopra, ma ho pensato di fornire una risposta più breve e più concisa. Ancora una volta, questa è la rappresentazione di Hamilton per un processo causale ARMA ( , ), dove . Questo numero sarà la dimensione del vettore di stato ed è necessario per rendere il numero di righe del lo stato corrisponde al numero di colonne della matrice di osservazione. Ciò significa che dobbiamo anche impostare i coefficienti su zero ogni volta che l'indice è troppo grande.pqr=max(p,q+1)r(ξt,ξt1,,ξtr+1)

  1. Equazione di osservazione

ϕ(B)(ytμ)=θ(B)ϵt(causality)(ytμ)=ϕ1(B)θ(B)ϵtyt=μ+ϕ1(B)θ(B)ϵtyt=μ+θ(B)ϕ1(B)ϵt(letting ξt=ϕ1(B)ϵt)yt=μ+θ(B)ξt(this is where we need r)yt=μ+[1θ1θ2θr1][ξtξt1ξtr+1]the state vector+0.
  1. Equazione di stato

ξt=ϕ1(B)ϵtϕ(B)ξt=ϵt(1ϕ1BϕrBr)ξt=ϵtξt=ϕ1ξt1++ϕrξtr+ϵt[ξtξt1ξt2ξtr+1]=[ϕ1ϕ2ϕ3ϕr1000010000010][ξt1ξt2ξtr]+[ϵt00].

1
Questo rende finalmente chiaro da dove provengono queste equazioni di stato. Penso che affermarlo in questo modo sia didatticamente molto meglio che dare semplicemente quelle equazioni che appaiono casuali con la nota che risulta giusto.
Alex,

@CowboyTrader sì, esatto. Almeno per questa rappresentazione ARMA. Ce ne sono alcuni altri
Taylor,

@CowboyTrader no, ma direi che è una sensazione sensata perché la letteratura sui modelli dello spazio degli stati è distorta verso il filtraggio. Esistono equazioni di previsione ricorsive per i modelli spaziali di stato gaussiani lineari, ma ottieni le cose di filtro come bonus aggiuntivo.
Taylor,

@CowboyTrader sentiti libero di mandarmi una email. So che non tutti amano le discussioni estese nei commenti, quindi potrebbe essere più facile farlo.
Taylor,

Vedo che è dimostrato, ma potresti aiutarmi a dare un po 'di intuizione? Quali sono le variabili di stato, qual è il vettore di stato t = 0?
Frank,
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.