Un'idea di base nell'apprendimento statistico è che puoi imparare ripetendo un esperimento. Ad esempio, possiamo continuare a lanciare una puntina da disegno per apprendere la probabilità che una puntina si posi sulla sua testa.
Nel contesto delle serie temporali, osserviamo una singola serie di un processo stocastico piuttosto che ripetute serie del processo stocastico. Osserviamo 1 lungo esperimento piuttosto che molteplici esperimenti indipendenti.
Abbiamo bisogno di stazionarietà ed ergodicità in modo che l'osservazione a lungo termine di un processo stocastico sia simile all'osservazione di molte serie indipendenti di un processo stocastico.
Alcune definizioni (imprecise)
Sia uno spazio campione. Un processo stocastico è una funzione sia del tempo sia del risultato .Ω{Yt}t∈{1,2,3,…}ω∈Ω
- Per ogni momento , è una variabile casuale (cioè una funzione da a uno spazio come lo spazio dei numeri reali).tYtΩ
- Per ogni risultato abbiamo è una serie deterministicaωX(ω){Y1(ω),Y2(ω),Y3(ω),…}
Un problema fondamentale nelle serie storiche
In Statistics 101, ci viene insegnato una serie di variabili indipendenti e identicamente distribuite , , ecc ... Osserviamo esperimenti multipli e identici cui un è casuale scelto e questo ci permette di imparare su variabile casuale . Secondo la legge dei grandi numeri , abbiamo convergendo quasi sicuramente in .X1X2X3i=1,…,nωi∈ΩX11n∑ni=1XiE[X]
tΩ
1T∑Tt=1Yt
Affinché più osservazioni nel tempo possano svolgere un compito simile a quello che più prelievi dallo spazio del campione , abbiamo bisogno di stazionarietà ed ergodicità .
E[Y]1T∑Tt=1YtE[Y]
Esempio 1: fallimento della stazionarietà
{Yt}Yt=t{Yt}
St=1t∑ti=1YiStt→∞S1=1,S2=32,S3=2,…,St=t+12YtStt→∞
Esempio: fallimento dell'ergodicità
XYt=Xt{Yt}=(0,0,0,0,0,0,0,…){Yt}=(1,1,1,1,1,1,1,…
E[Yt]=12St=1t∑ti=1YiYt