Quali sono le statistiche della trasformata discreta di Fourier del rumore bianco gaussiano?


10

Considera un segnale di rumore gaussiano bianco . Se campioniamo questo segnale e calcoliamo la trasformata discreta di Fourier, quali sono le statistiche delle risultanti ampiezze di Fourier?x(t)


1
Devi iniziare con un segnale gaussiano bianco a tempo discreto . Il campionamento di un processo bianco a tempo continuo è matematicamente mal definito, poiché la funzione di autocorrelazione di quel processo è descritta da una distribuzione delta di Dirac. Poiché l'autocorrelazione del processo campionato è una versione campionata dell'autocorrelazione del processo continuo originale, è necessario prendere in considerazione una versione campionata della distribuzione delta di Dirac, che non è definita.
Matt L.

@MattL. "[La] autocorrelazione del processo campionato è una versione campionata dell'autocorrelazione del processo continuo originale ...". Questo non è ovvio per me, in realtà. Spiegare che sarebbe un'utile domanda e risposta.
DanielSank

Presta attenzione che le risposte saranno valide per qualsiasi trasformazione unitaria del rumore gaussiano bianco.
Royi,

@Royi Non sono d'accordo con la tua modifica. Puoi fornire un link che indichi che il maiuscolo che hai usato nel titolo è coerente con una politica del sito?
DanielSank

Ripristinato il tuo stile. La cosa principale nella modifica è stata l'aggiunta di tag pertinenti.
Royi,

Risposte:


15

Strumenti matematici

Possiamo fare il calcolo usando alcuni elementi di base della teoria della probabilità e dell'analisi di Fourier. Esistono tre elementi (denotiamo la densità di probabilità di una variabile casualeX al valore x come PX(x)):

  1. Data una variabile casuale X con distribuzione PX(x), la distribuzione della variabile in scala Y=aX è PY(y)=(1/a)PX(y/a).

  2. La distribuzione di probabilità di una somma di due variabili casuali è uguale alla convoluzione delle distribuzioni di probabilità delle somme. In altre parole, seZ=X+Y poi PZ(z)=(PXPY)(z) dove indica convoluzione.

  3. La trasformata di Fourier della convoluzione di due funzioni è uguale al prodotto delle trasformate di Fourier di queste due funzioni. In altre parole:

dx(fg)(x)eikx=(dxf(x)eikx)(dxg(x)eikx).

Calcolo

Indica il processo casuale come x(t). Il campionamento discreto produce una sequenza di valorixnche riteniamo statisticamente non correlati. Supponiamo anche che per ciascunon xn è gaussiano distribuito con deviazione standard σ. Indichiamo la funzione gaussiana con deviazione standardσ dal simbolo Gσ quindi lo diremmo Pxn(x)=Gσ(x).

Le ampiezze discrete della trasformata di Fourier sono definite come

Xkn=0N1xnei2πnk/N.
Concentrandosi per ora solo sulla parte reale che abbiamo
Xk=n=0N1xncos(2πnk/N).
Questa è solo una somma, quindi secondo la regola # 2 la distribuzione di probabilità di Xkè uguale alla convoluzione multipla delle distribuzioni di probabilità dei termini sommati. Riscriviamo la somma come
Xk=n=0N1yn
dove
ynxncos(2πnk/N).
Il fattore coseno è un fattore di scala deterministico. Sappiamo che la distribuzione dixn è Gσ così possiamo usare la regola n. 1 dall'alto per scrivere la distribuzione di yn:
Pyn(y)=1cos(2πnk/N)Gσ(ycos(2πnk/N))=Gσcn,k(y)
dove per brevità di notazione abbiamo definito cn,kcos(2πnk/N).

Pertanto, la distribuzione di Xk è la convoluzione multipla sulle funzioni Gσcn,k:

PXk(x)=(Gσc0,kGσc1,k)(x).

Non è ovvio come eseguire la convoluzione multipla, ma usare la regola n. 3 è facile. Indica la trasformata di Fourier di una funzione diF noi abbiamo

F(PXk)=n=0N1F(Gσcn,k).

La trasformata di Fourier di un gaussiano con larghezza σ è un altro gaussiano con larghezza 1/σ, quindi otteniamo

F(PXk)(ν)=n=0N1G1/σcn,k=n=0N1σ2cn,k22πexp[ν22(1/σ2cn,k2)]=(σ22π)N/2(n=0N1cn,k)exp[ν22σ2n=0N1cos(2πnk/N)2].
Tutte le cose che precedono l'esponenziale sono indipendenti νe sono quindi fattori di normalizzazione, quindi li ignoriamo. La somma è giustaN/2 così otteniamo
F(PXk)exp[ν22σ2N2]=G2/σ2N
e quindi
PXk=GσN/2.

Abbiamo quindi calcolato la distribuzione di probabilità della parte reale del coefficiente di Fourier Xk. È gaussiano distribuito con deviazione standardσN/2. Si noti che la distribuzione è indipendente dall'indice di frequenzak, che ha senso per il rumore non correlato. Per simmetria la parte immaginaria dovrebbe essere distribuita esattamente allo stesso modo.

Intuitivamente prevediamo che l'aggiunta di una maggiore integrazione dovrebbe ridurre l'ampiezza della distribuzione del rumore risultante. Tuttavia, abbiamo scoperto che la deviazione standard della distribuzione diXk cresce comeN. Ciò è dovuto solo alla nostra scelta di normalizzazione della trasformata discreta di Fourier. Se invece lo avessimo normalizzato così

Xk=1Nn=0N1xnei2πnk/N
allora avremmo trovato
PXk=Gσ/2N
che concorda con l'intuizione che la distribuzione del rumore si riduce man mano che aggiungiamo più dati. Con questa normalizzazione, un segnale coerente si demodulerebbe in un fasore di ampiezza fissa, quindi recuperiamo la consueta relazione che il rapporto tra segnale e ampiezza del rumore scala comeN.

Tutto questo va bene e dandy, ma quando si ha a che fare con più variabili casuali, e in particolare con variabili casuali gaussiane, le covarianze sono di una certa importanza, così come la questione di quale delle variabili casuali sia indipendente . Potresti affrontare questo problema nella tua risposta? (Anche le variabili casuali marginalmente gaussiane non devono essere congiuntamente gaussiane; sono le tue2Nvariabili casuali congiuntamente gaussiane? sono indipendenti?
Dilip Sarwate,

1
@DilipSarwate questa è una buona domanda. Purtroppo non conosco la risposta (ancora). Sto attraversando quello che potreste definire "studio autonomo" dell'elaborazione del segnale stocastico e non ho ancora capito perché i valori dei processi fisici in tempi diversi sono spesso modellati come congiuntamente gaussiani (o anche cosa significhi davvero). Sospetto che abbia a che fare con le equazioni differenziali che governano il processo sottostante, ma ancora una volta non lo so ancora. Se ti interessa fare una domanda e risposta, sarebbe davvero utile. Altrimenti alla fine farò le domande pertinenti su questo sito.
DanielSank

@DilipSarwate Ho notato che hai usato l'ipotesi di un processo gaussiano nella tua risposta a questa altra domanda . Hai anche notato che un "processo gaussiano" non è la stessa cosa che dire semplicemente che la distribuzione del processo è fissatè distribuito gaussiano. Ciò suggerisce che i processi gaussiani sono comuni in natura / ingegneria. È vero? Se è così, puoi darmi un suggerimento su dove posso imparare perché?
DanielSank

1
@DanielSank Secondo il teorema del limite centrale, la combinazione di un numero molto elevato di variabili casuali indipendenti produrrà sempre una distribuzione normale, indipendentemente dalla distribuzione originale delle singole variabili casuali. Poiché la distribuzione normale è molto ben studiata, si presume spesso che il processo osservato si adatti al teorema del limite centrale. Questo non è sempre il caso (come i fotoni su un CCD, ad esempio), ma tende ad essere un'approssimazione sicura per molti problemi di fisica macroscopica.
PhilMacKay,

1
@ anishtain4 Ecco una singola linea (lunga!) di Python che simula thr processo: import numpy as np; np.std(np.real(np.sum(np.random.normal(0, 1, (10000, 10000)) * np.exp(1.0j * 2 * np.pi * np.linspace(0, 1, 10000) * 50), axis=1))). Quando lo faccio, ottengo l'output 70, che è uguale a10,000/2come dovrebbe essere. Forse puoi confrontare la tua simulazione con quella linea.
DanielSank

2

Vorrei dare un'altra interpretazione della risposta di @ DanielSank. Per prima cosa supponiamo chevnCN(0,σ2) ed è quindi la sua trasformata discreta di Fourier è quindi:

Vk=1Nn=0N1vnej2πnNk
.

Vogliamo calcolare la distribuzione di Vk Per iniziare, notiamo che da allora vnè un rumore gaussiano bianco, è circolarmente simmetrico, quindi le parti reali e immaginarie della sua Trasformata di Fourier si distribuiranno allo stesso modo. Pertanto, dobbiamo solo calcolare la distribuzione della parte reale e quindi combinarla con la parte immaginaria.

Quindi ci separiamo Vknelle sue parti reali e immaginarie. Abbiamo:

Vk=1Nn=0N1vnej2πnNk
Vk=1Nn=0N1(R{vn}+jI{vn})(cos(2πnNk)+jsin(2πnNk))
Vk=R{Vk}1+R{Vk}2+jI{Vk}1+jI{Vk}2
Vk=R{Vk}+jI{Vk}

Dove:

R{Vk}=R{Vk}1+R{Vk}2
I{Vk}=I{Vk}1+I{Vk}2

E:

R{Vk}1=1Nn=0N1R{vn}cos(2πnNk)

R{Vk}2=1Nn=0N1I{vn}sin(2πnNk)

I{Vk}1=1Nn=0N1R{vn}sin(2πnNk)

I{Vk}2=1Nn=0N1I{vn}cos(2πnNk)

Ora lavoriamo per derivare la distribuzione di R{Vk}1 e R{Vk}2. Come nella risposta di @ DanielSank, definiamo:

xn,k=1Ncos(2πnNk)R{vn}=1Ncn,kR{vn}

Thus we can write:

R{Vk}1=n=0N1xn,k

This allows us the easily apply the following facts about linear combinations of Gaussian random variables. Namely, we know that:

  1. When xCN(0,σ2) then R{x}N(0,12σ2)
  2. When xN(μ,σ2) then cxN(cμ,c2σ2)

Together, these imply that xn,kN(0,cn,k22N2σ2). Now we work on the sum. We know that:

  1. When xnN(μn,σn2) then y=n=0N1xnN(n=0N1μn,n=0N1σn2)
  2. n=0N1cn,k2=N2

These imply that:

R{Vk}1N(0,n=0N1cn,k22N2σ2)=N(0,N22N2σ2=N(0,σ24N)

So we have shown that:

R{Vk}1N(0,σ24N)

Now we apply the same argument to R{Vk}2. Abusing our notation, we rewrite:

xn,k=1Nsin(2πnNk)I{vn}=1Nsn,kI{vn}

Repeating the same argument, and noting that the Gaussian is a symmetric distribution (so we can ignore the sign difference), gives us:

R{Vk}2N(0,σ24N)

Since n=0N1sn,k2=N2 as well. So therefore since R{Vk}=R{Vk}1+R{Vk}2, we get:

R{Vk}N(0,σ24N+σ24N)=N(0,σ22N)

So we have shown that:

R{Vk}N(0,σ22N)

By circular symmetry, we also know then that:

I{Vk}N(0,σ22N)

So since Vk=R{Vk}+jI{Vk}, we finally arrive at:

VkCN(0,σ2N)

Therefore taking the DFT divides the variance by the length of the DFT window -- assuming the window is rectangular of course -- which is the same result as in @DanielSank's answer.


Why Sum of C(n,k)^2=N/2?
Hãi Ngô Thanh
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.