Perché è valido detrarre le serie temporali con la regressione?


14

Potrebbe essere una domanda strana ma come novizio all'argomento mi chiedo perché utilizziamo la regressione per detrarre una serie temporale se uno dei presupposti della regressione è che i dati dovrebbero essere presi mentre i dati su cui viene applicata la regressione sono un non iid?


6
In genere non è vero che assumiamo che i "dati" siano iid
Christoph Hanck,

3
Cosa intendi esattamente con detren ?
Matthew Gunn,

6
Non ho il tempo di scrivere una risposta / documento corretta, ma in generale la correlazione seriale non distorce i risultati di una regressione lineare (altera il calcolo appropriato degli errori standard, degli intervalli di confidenza, ecc.). Ciò rende sensato l'approccio classico a due fasi (scartare, quindi analizzare per correlazione). (ad es. alcuni googling della "regressione lineare di correlazione seriale imparziale portano a fmwww.bc.edu/ec-c/f2010/228/EC228.f2010.nn12.pdf )
Ben Bolker,

2
Forse ancora più importante, l'OLS stimatore del coefficiente su un trend lineare converge un intero ordine di grandezza più veloce (ad un tasso ) per il suo vero valore che per regressori stazionari ( n - 1 / 2 ), il che significa che può stimare costantemente la tendenza anche se si trascurano le variabili stazionarie. Ciò è in contrasto con la stima degli effetti delle variabili stazionarie una per una, in cui si perde coerenza se si omettono le variabili. n3/2n1/2
Richard Hardy,

Risposte:


15

Sei astuto nel percepire che potrebbe esserci un conflitto tra i presupposti classici della regressione lineare dei minimi quadrati ordinari e la dipendenza seriale che si trova comunemente nell'impostazione delle serie temporali.

Considerare Assunzione 1.2 (esogeneità Strict) di di Fumio Hayashi Econometria .

E[ϵiX]=0

Questo a sua volta implica , che qualsiasi residuo ϵ i è ortogonale a qualsiasi regressore x j . Come sottolinea Hayashi, questa ipotesi è violata nel modello autoregressivo più semplice . [1] Considera il processo AR (1):E[ϵixj]=0ϵixj

yt=βyt1+ϵt

Possiamo vedere che sarà un regressore per y t + 1 , ma ϵ t non è ortogonale a y t (cioè E [ ϵ t y t ] 0 ).ytyt+1ϵtytE[ϵtyt]0

Poiché la presunta rigorosa esogeneità è stata violata, nessuno degli argomenti che si basano su tale ipotesi può essere applicato a questo semplice modello AR (1)!

Quindi abbiamo un problema irrisolvibile?

No, non lo facciamo! La stima dei modelli AR (1) con minimi quadrati ordinari è del tutto valida, comportamento standard. Perché può ancora essere ok?

Grandi esempi, argomenti asintotici non hanno bisogno di un'esogenietà rigorosa. Un presupposto sufficiente (che può essere utilizzato al posto della rigorosa esogeneità) è che i regressori sono predeterminati , che i regressori sono ortogonali al termine di errore contemporaneo. Vedi Hayashi Capitolo 2 per una discussione completa.

Riferimenti

[1] Fumio Hayashi, Econometrics (2000), pag. 35

[2] ibid., P. 134


6

I metodi di regressione di base dei minimi quadrati non presuppongono che i valori y siano iid Assumono che i residui (ovvero valore y meno tendenza reale) siano iid

Esistono altri metodi di regressione che fanno ipotesi diverse, ma ciò probabilmente complicherebbe eccessivamente questa risposta.


5
Presupposto che è anche chiaramente falso: basti pensare a una serie temporale con una tendenza lineare e stagionalità. I restanti residui della regressione lineare sono chiaramente correlati, quindi non iid.
DeltaIV,

3

È una buona domanda Il problema non è nemmeno menzionato nei miei libri sulle serie storiche (probabilmente avrò bisogno di libri migliori :) Innanzitutto, tieni presente che non sei costretto a usare la regressione lineare per detrarre una serie temporale, se la serie ha una tendenza stocastica (unità radice )- potresti semplicemente fare la prima differenza. Ma devi usare la regressione lineare, se la serie ha una tendenza deterministica. In questo caso è vero che i residui non sono iid, come dici tu. Basti pensare a una serie che ha una tendenza lineare, componenti stagionali, componenti ciclici, ecc. Tutti insieme - dopo la regressione lineare i residui sono quasi indipendenti. Il punto è che non stai usando la regressione lineare per fare previsioni o per formare intervalli di previsione. È solo una parte della tua procedura per l'inferenza: devi ancora applicare altri metodi per arrivare ai residui non correlati. Quindi, mentre la regressione lineare di per sé non è una procedura di inferenza valida (non è il modello statistico corretto) per la maggior parte delle serie temporali, una procedura che include la regressione lineare in quanto una delle sue fasi può essere un modello valido, se il modello che assume corrisponde al processo di generazione dei dati per il serie storiche.


3
Non differenziare se si ha una tendenza deterministica: la differenziazione è appropriata solo per le tendenze stocastiche (radici unitarie). Se si differenzia una serie senza una radice unitaria, nel modello verranno introdotti tipi di errori di media mobile integrati, e questo è un problema.
Richard Hardy,

1
Penso che tu intenda la differenza, non la differenziazione.
Hong Ooi,

yt=β0+β1yt-1+εt

1
@HongOoi, sì, mio ​​male, intendevo differenziazione, non differenziazione. DeltaIV, si dice che una serie storica abbia una tendenza stocastica se la serie temporale è un processo integrato (= unità-radice). Questo è un termine standard nella letteratura su radice unitaria e cointegrazione. Mi chiedo se abbia significati diversi in altri filoni della letteratura. In ogni caso, l'eccessiva differenziazione (= differenziazione di una serie temporale che non ha una radice unitaria) è un fenomeno noto e dovrebbe essere evitato.
Richard Hardy,

y=β0+Betun'1X1?
DeltaIV,
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.