La covarianza , come si può immaginare dal nome, indica la tendenza di due variabili a co-variare o "spostare" insieme. Se cov ( , Y ) è positiva, allora i valori maggiori di X sono associati a valori maggiori di Y e valori minori di X sono associati a valori minori di Y . Se la covarianza è negativa, vale l'opposto: le piccole X sono associate a Y più grandi e viceversa. Ad esempio, ci aspetteremmo di vedere un'elevata covarianza tra stipendio e anni di esperienza, ma una covarianza bassa o negativa tra peso e velocità massima di esecuzione.XYXYXYXY
La covarianza dipende dalla scala (ad esempio, otterrai una covarianza diversa se il peso è misurato in chilogrammi o libbre) e le unità sono un po 'strane (anni-dollaro e chilogrammi-metri al secondo nei nostri due esempi), quindi spesso normalizziamo le covarianze dividendo per per ottenere la correlazione . La correlazione è senza unità e va da -1 a 1, il che la rende una misura pratica delle associazioni lineari . (Quel bit lineare è un avvertimento molto importante!)σX⋅ σy
Supponiamo ora di avere una serie di valori che sono in qualche modo ordinati; queste sono spesso, ma non sempre, una serie temporale. La funzione di auto-correlazione è la correlazione tra il valore in posizione / tempo è con i valori in altre posizioni ( t - 1 ) , ( t - 2 )t( t - 1 )( t - 2 )ecc. Le autocorrelazioni elevate possono indicare che le serie cambiano lentamente o, equivalentemente, che il valore attuale è prevedibile dai valori precedenti. Sebbene la varianza e la covarianza siano scalari (cioè singoli valori), l'auto-correlazione è un vettore - si ottiene un valore di autocorrelazione per ogni "ritardo" o "gap". Il rumore bianco ha una funzione di autocorrelazione molto piatta poiché è casuale; le immagini naturali hanno in genere ampie autocorrelazioni spaziali poiché i pixel vicini sono spesso di colore e luminosità simili. Un'eco potrebbe avere un picco vicino al centro (poiché i suoni sono auto-simili), una regione piatta durante il silenzio, e quindi un altro picco che costituisce l'eco stesso.
XYXXYXY
Le funzioni di auto-covarianza e cross-covarianza sono come i loro equivalenti di correlazione, ma non scalate; è la stessa differenza tra covarianza e correlazione.
Una densità spettrale di potenza indica come viene distribuita la potenza di un segnale su varie frequenze. Il PSD del tono puro (cioè un'onda sinusoidale) è piatto tranne che alla frequenza del tono; Segnali e suoni naturalistici hanno PSD molto più complicati con armoniche, sfumature, risonanza, ecc. È correlato ad altri concetti perché la trasformata di Fourier della funzione di autocorrelazione è il PSD.