Ho trovato due definizioni in letteratura per il tempo di autocorrelazione di una serie temporale debolmente stazionaria:
dove è l'autocorrelazione al ritardok.
Un'applicazione del tempo di autocorrelazione è trovare la "dimensione effettiva del campione": se non hai osservazioni di una serie temporale e conosci il suo tempo di autocorrelazione τ , puoi far finta di avere
campioni indipendenti invece di quelli correlati allo scopo di trovare la media. Stimare τ dai dati non è banale, ma ci sono alcuni modi per farlo (vedi Thompson 2010 ).
La definizione senza valori assoluti, , sembra più comune in letteratura; ma ammette la possibilità di τ a < 1 . Usando R e il pacchetto "coda":
require(coda)
ts.uncorr <- arima.sim(model=list(),n=10000) # white noise
ts.corr <- arima.sim(model=list(ar=-0.5),n=10000) # AR(1)
effectiveSize(ts.uncorr) # Sanity check
# result should be close to 10000
effectiveSize(ts.corr)
# result is in the neighborhood of 30000... ???
La funzione "effectSize" in "coda" usa una definizione del tempo di autocorrelazione equivalente a , sopra. Esistono altri pacchetti R là fuori che calcolano la dimensione del campione o il tempo di autocorrelazione effettivi, e tutti quelli che ho provato danno risultati coerenti con questo: che un processo AR (1) con un coefficiente AR negativo ha campioni più efficaci rispetto al correlato serie storiche. Questo sembra strano.
Ovviamente, ciò non può mai accadere nella definizione del tempo di autocorrelazione.
Qual è la definizione corretta di tempo di autocorrelazione? C'è qualcosa di sbagliato nella mia comprensione delle dimensioni effettive del campione? Il risultato mostrato sopra sembra che debba essere sbagliato ... cosa sta succedendo?