La funzione di autocorrelazione descrive completamente un processo stocastico?


31

Un processo stocastico è completamente descritto dalla sua funzione di autocorrelazione?

In caso contrario, quali proprietà aggiuntive sarebbero necessarie?

Risposte:


44

Cosa si intende per descrizione completa di un processo stocastico? Bene, matematicamente, un processo stocastico è una raccolta di variabili casuali, una per ogni istante in un set di indici , dove di solito è l'intera linea reale o la linea reale positiva e una descrizione completa significa che per ogni numero intero e istanti di tempo , conosciamo le distribuzioni (congiunte) di le variabili casuali , ,{X(t):tT}t TTn1nt1,t2,,tnTnX(t1)X(t2),X(tn). Questa è un'enorme quantità di informazioni: dobbiamo conoscere il CDF di per ogni istante , il CDF bidimensionale) di e per tutte le scelte di istanti di tempo e , i CDF (tridimensionali) di , e , ecc. ecc. ecc.X(t)tX(t1)X(t2)t1t2X(t1)X(t2)X(t3)

Quindi, naturalmente, le persone hanno cercato descrizioni più semplici e modelli più restrittivi. Una semplificazione si verifica quando il processo è invariante a una modifica dell'origine temporale. Ciò significa che

  • Tutte le variabili casuali nel processo hanno CDF identici: per tutti .FX(t1)(x)=FX(t2)(x)t1,t2
  • Qualsiasi due variabili casuali separate da un determinato periodo di tempo hanno lo stesso CDF comune di qualsiasi altra coppia di variabili casuali separate dallo stesso periodo di tempo. Ad esempio, le variabili casuali e sono separate da secondi, così come le variabili casuali e , e quindiX(t1)X(t1+τ)τX(t2)X(t2+τ)FX(t1),X(t1+τ)(x,y)=FX(t2),X(t2+τ)(x,y)
  • Ogni tre variabili casuali , , distanziate e hanno lo stesso CDF comune di , , che distanziano anche e ,X(t1)X(t1+τ1)X(t1+τ1+τ2)τ1τ2X(t2)X(t2+τ1)X(t2+τ1+τ2)τ1τ2
  • e così via per tutti i CDF multidimensionali. Vedi, ad esempio, la risposta di Peter K. per i dettagli del caso multidimensionale.

In effetti, le descrizioni probabilistiche del processo casuale non dipendono da ciò che scegliamo di chiamare l'origine sull'asse del tempo: spostando tutti gli istanti temporali di un importo fisso su fornisce la stessa descrizione probabilistica delle variabili casuali. Questa proprietà è chiamata stazionarietà di senso stretto e un processo casuale che gode di questa proprietà è chiamato un processo casuale strettamente stazionario o, più semplicemente, un processo casuale stazionario. t1,t2,,tnτt1+τ,t2+τ,,tn+τ

Si noti che la rigorosa stazionarietà da sola non richiede alcuna forma particolare di CDF. Ad esempio, non dice che tutte le variabili sono gaussiane.

L'aggettivo suggerisce rigorosamente che è possibile definire una forma più libera di stazionarietà. Se la order CDF congiunta di è lo stesso della joint-order CDF di per tutte le scelte di e , quindi si dice che il processo casuale sia stazionario per ordinare e viene definito processo casuale stazionario a ordine . Si noti che un processo casuale stazionario con ordine è anche stazionario per ordinare per ciascun positivoNthX(t1),X(t2),,X(tN)NthX(t1+τ),X(t2+τ),,X(tN+τ)t1,t2,,tNτNNthNthnn<N . (Questo perché il CDF con ordine è il limite del CDF con ordine come degli argomenti approccio : una generalizzazione di ). Un processo casuale strettamente stazionario allora è un processo casuale che è stazionario a tutti gli ordini .nthNthNnFX(x)=limyFX,Y(x,y)N

Se un processo casuale è fermo (almeno) all'ordine , allora tutte le hanno la stessa distribuzione e quindi, supponendo che la media esista, è uguale per tutti . Allo stesso modo, è lo stesso per tutte le , ed è indicato come il potere del processo. Tutti i processi fisici hanno un potere finito e quindi è comune supporre che nel qual caso, e specialmente nella letteratura ingegneristica precedente, il processo è chiamato processo di secondo ordine . La scelta del nome è sfortunata perché invita alla confusione con il secondo ordine 1X(t)E[X(t)]=μtE[(X(t))2]tE[(X(t))2]<stazionarietà (cfr. questa mia risposta su stats.SE ), e quindi qui chiameremo un processo per cui è finito per tutto (indipendentemente dal fatto che è una costante) come processo a potenza finita ed evita questa confusione. Ma notalo ancoraE[(X(t))2]tE[(X(t))2]

un processo stazionario di primo ordine non deve necessariamente essere un processo a potenza finita.

Prendi in considerazione un processo casuale stazionario per ordinare . Ora, poiché la distribuzione congiunta di e è uguale alla funzione di distribuzione congiunta di e , e il valore dipende solo da . Queste aspettative sono limitate per un processo a potenza finita e il loro valore è chiamato funzione di autocorrelazione del processo: è una funzione di , il tempo separazione delle variabili casuali e e non dipende da2X(t1)X(t1+τ)X(t2)X(t2+τ)E[X(t1)X(t1+τ)]=E[X(t2)X(t2+τ)]τRX(τ)=E[X(t)X(t+τ)]τX(t)X(t+τ)taffatto. Si noti inoltre che quindi la funzione di autocorrelazione è una funzione uniforme del suo argomento.

E[X(t)X(t+τ)]=E[X(t+τ)X(t)]=E[X(t+τ)X(t+ττ)]=RX(τ),

Un processo casuale stazionario di secondo ordine a potenza finita ha le proprietà che

  1. La sua media è una costanteE[X(t)]
  2. La sua funzione di autocorrelazione è una funzione di , la separazione temporale delle variabili casuali e , e lo fa non dipende affatto da .RX(τ)=E[X(t)X(t+τ)]τX(t)X(t+τ)t

L'assunto della stazionarietà semplifica in qualche modo la descrizione di un processo casuale ma, per ingegneri e statistici interessati a costruire modelli da dati sperimentali, stimare tutti quei CDF è un compito non banale, in particolare quando esiste solo un segmento di un percorso di campionamento (o realizzazione) su cui è possibile effettuare le misurazioni. Due misurazioni relativamente facili da eseguire (poiché l'ingegnere ha già gli strumenti necessari sul suo banco di lavoro (o programmi in MATLAB / Python / Octave / C ++ nella sua libreria software) sono il valore DC di e la funzione di autocorrelazionex(t) 1T0Tx(t)dtx(t)Rx(τ)=1T0Tx(t)x(t+τ)dt(o la sua trasformata di Fourier, lo spettro di potenza di ). Prendendo queste misurazioni come stime della media e della funzione di autocorrelazione di un processo a potenza finita si ottiene un modello molto utile che discuteremo in seguito.x(t)


Un processo casuale a potenza finita è chiamato processo WSS ( wide-sense-stazionario ) (anche un processo casuale debolmente stazionario che fortunatamente ha anche lo stesso inizialismo WSS) se ha una media costante e la sua funzione di autocorrelazione dipende solo dalla differenza di tempo (o ).RX(t1,t2)=E[X(t1)X(t2)]t1t2t2t1

Si noti che la definizione non dice nulla sui CDF delle variabili casuali che compongono il processo; è interamente un vincolo ai momenti del primo ordine e del secondo ordine delle variabili casuali. Naturalmente, un processo casuale stazionario di secondo ordine (o tipo stazionario (per ) o rigorosamente stazionario) è un processo WSS, ma non è necessario che sia vero il contrario.NthN>2

Un processo WSS non deve necessariamente essere fermo in alcun ordine.

Si consideri, ad esempio, il processo casuale dove assume quattro valori ugualmente probabili e . (Non abbiate paura: i quattro possibili percorsi di campionamento di questo processo casuale sono solo le quattro forme d'onda del segnale di un segnale QPSK). Si noti che ogni è una variabile casuale discreta che, in generale, assume quattro valori ugualmente probabili e , È facile vedere che in generale e{X(t):X(t)=cos(t+Θ),<t<}Θ0,π/2,π3π/2X(t)cos(t),cos(t+π/2)=sin(t),cos(t+π)=cos(t)cos(t+3π/2)=sin(t)X(t)X(s)hanno distribuzioni diverse, e quindi il processo non è nemmeno stazionario di primo ordine. D'altra parte, per ogni mentre In breve, il processo ha una media zero e la sua funzione di autocorrelazione dipende solo dalla differenza di tempo , e quindi il processo è in senso lato stazionario. Ma non è stazionario di primo ordine e quindi non può neanche essere stazionario di ordini superiori.

E[X(t)]=14cos(t)+14(sin(t))+14(cos(t))+14sin(t)=0
t
E[X(t)X(s)]=14[cos(t)cos(s)+(cos(t))(cos(s))+sin(t)sin(s)+(sin(t))(sin(s))]=12[cos(t)cos(s)+sin(t)sin(s)]=12cos(ts).
ts

Anche per i processi WSS che sono processi casuali stazionari (o strettamente stazionari) di secondo ordine, si può dire poco sulle forme specifiche delle distribuzioni delle variabili casuali. In breve,

Un processo WSS non è necessariamente stazionario (per qualsiasi ordine) e la funzione media e di autocorrelazione di un processo WSS non è sufficiente per fornire una descrizione statistica completa del processo.

Supponiamo infine che un processo stocastico sia assunto come un processo gaussiano ("dimostrarlo" con un ragionevole grado di fiducia non è un compito banale). Ciò significa che per ogni , è una variabile casuale gaussiana e per tutti gli interi positivi e le scelte di istanti , , , le variabili casuali , , sono variabili casuali congiuntamente gaussiane . Ora una funzione di densità gaussiana congiunta è completamentetX(t)n2nt1t2,tnNX(t1)X(t2),X(tn)determinato dalla media, dalle varianze e dalle covarianze delle variabili casuali, e in questo caso, conoscendo la funzione media (non è necessario che sia una costante come è richiesto per il wide-sense -stationarity) e la funzione di autocorrelazione per tutti (non è necessario che dipenda solo da come richiesto per la stazionarietà wide-sense) è sufficiente per determinare completamente le statistiche del processo.μX(t)=E[X(t)]RX(t1,t2)=E[X(t1)X(t2)]t1,t2t1t2

Se il processo gaussiano è un processo WSS, allora è anche un processo gaussiano strettamente stazionario . Fortunatamente per ingegneri e processori di segnali, molti processi di rumore fisico possono essere ben modellati come processi gaussiani WSS (e quindi processi strettamente stazionari), in modo che l'osservazione sperimentale della funzione di autocorrelazione fornisca prontamente tutte le distribuzioni articolari. Inoltre, poiché i processi gaussiani mantengono il loro carattere gaussiano mentre attraversano i sistemi lineari e la funzione di autocorrelazione dell'output è correlata alla funzione di autocorrelazione dell'input come

Ry=hh~RX
in modo che anche le statistiche di output possano essere facilmente determinate, i processi WSS in generale e i processi gaussiani WSS in particolare sono di grande importanza nelle applicazioni di ingegneria.


Potresti, per favore, commentare "White Noise" in questo senso? Per definizione, l'autocorrelazione su è la varianza delle variabili casuali. Vuol dire che AWGN (Additive White Gaussian Noise) ha una varianza infinita? Lo chiedo perché di solito le persone scrivono , è sbagliato? Dovrebbe essere scritto ? Grazie. τ=0n(t) N(0,N0/2)n(t) N(0,δ(0)N0/2)
Royi,

1
@Drazick Per favore, fai una domanda separata.
Dilip Sarwate,

1
Questo è un mini-corso fantastico nella definizione di processi stazionari. Non ho mai visto nulla di simile - strutturato in modo metodico e chiaro. Wiki della community?
abalter

@Dilip Sarwate Mi scusi per la mia ignoranza. Nell'esempio Perché E [X (t)] = 0 per tutte le t? Hai assunto ergodicità? Come hai derivato la funzione di densità di probabilità di X (t) dalla funzione di densità di probabilità di theta per calcolare il valore atteso? E [X (t) X (s)] = E [cos (t + theta) * cos (s + theta)] giusto? Quali passi hai preso per semplificare questa espressione e arrivare a ciò che hai scritto? Grazie
VMMF

1
@VMMF C'è NO ergodicità utilizzato. è una variabile casuale discreta perché è una variabile casuale discreta e assume valori e con uguale probabilità . Ergo, . assume valori , , e con uguale probabilità . Quindi,X(t)=cos(t+Θ)Θ±cos(t)±sin(t)14E[X(t)]=0X(t)X(s)cos(t)cos(s)(cos(t))(cos(s))=cos(t)cos(s)sin(t)sin(s)(sin(t))(sin(s))=sin(t)sin(s)14E[X(t)(X(s)]=12(cos(t)cos(s)+sin(t)sin(s))=12cos(ts) Quindi,
Dilip Sarwate,
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.