Ad esempio, in R se chiamate la acf()
funzione traccia un correlogramma di default e disegna un intervallo di confidenza al 95%. Guardando il codice, se chiami plot(acf_object, ci.type="white")
, vedi:
qnorm((1 + ci)/2)/sqrt(x$n.used)
come limite superiore per il tipo rumore bianco. Qualcuno può spiegare la teoria alla base di questo metodo? Perché otteniamo il qnorm di 1 + 0,95 e poi dividiamo per 2 e successivamente, dividiamo per il numero di osservazioni?