Capacità del canale AWGN


9

Sono confuso nel comprendere i concetti di base della comunicazione sui canali AWGN. So che la capacità di un canale AWGN a tempo discreto è:

C=12log2(1+SN)
e si ottiene quando il segnale di ingresso ha distribuzione gaussiana. Ma cosa significa che il segnale di ingresso è gaussiano? Significa che l'ampiezza di ogni simbolo di una parola in codice deve essere presa da un insieme gaussiano? Qual è la differenza tra l'uso di un libro di codici speciale (in questo caso gaussiano) e la modulazione del segnale con segnalazione M-ary, diciamo MPSK?

Risposte:


11

Supponendo un canale il cui input in ogni momento è una variabile casuale continua X e il suo output è Y=X+Z, dove ZN(0,N) e Z è indipendente da X, poi

CCI-AWGN=12log2(1+PN)
è la capacità del canale di ingresso continuo sotto il vincolo di potenza
EX2P
L'informazione reciproca I(X;Y) è ingrandito (ed è uguale a CCI-AWGN) quando XN(0,P).

Questo significa che se Xè una variabile casuale gaussiana continua con la varianza data, quindi l'output ha la massima informazione reciproca possibile con l'input. Questo è tutto!

Quando la variabile di input Xè discretizzato (quantizzato), è necessaria una nuova formulazione. In effetti, le cose possono facilmente diventare difficili. Per vederlo un po ', si può considerare il semplice caso di una discretizzazione molto grossolana diXdove può avere solo due valori. Quindi supponiamo cheX è selezionato da un alfabeto binario, ad esempio let X{±1}(o una versione ridimensionata per soddisfare un vincolo di potenza). In termini di modulazione, è identico a BPSK.

Si scopre che la capacità (anche in questo semplice caso) non ha forma chiusa. Riporto da "Modern Coding Theory" di Richardson e Urbanke:

CBI-AWGN=1+1ln(2)((2N1)Q(1N)2πNe12N+i=1(1)ii(i+1)e2i(i+1)NQ(1+2iN))
Un confronto tra i due casi può essere visto nella figura seguente:

inserisci qui la descrizione dell'immagine


Cosa faresti se vuoi avvicinarti alla capacità? utilizzando uno schema PSK di ordine superiore?
Mah,

@msm Ho sempre creduto che FEC fosse un concetto generale che includeva H-ARQ, o H-ARQ è un trucco per ridurre la lunghezza della parola in codice per trasmissione, cioè per ridurre la complessità della decodifica, con il costo di un tempo di trasmissione totale più lungo, non è vero?
AlexTP,

@msm Per favore, smetti di cancellare i tuoi vecchi e preziosi post!
Peter K.

@msm Quando ti sei registrato a SP.SE, hai concesso al sito una licenza irrevocabile per utilizzare il contenuto. Si prega di interrompere l'eliminazione del contenuto prezioso.
Peter K.

7

La formula della capacità

(1)C=0.5log(1+SN)
è per canale temporale discreto.

Supponendo di avere una sequenza di dati {an} per inviare, è necessario un set di forme d'onda ortonormali {ϕn(t)}per la modulazione. Nella modulazione lineare, a cui appartiene la modulazione M-ary,ϕn(t)=ϕ(tnT) dove T è la durata del simbolo e ϕ(t) è una forma d'onda prototipo in modo che il segnale TX a tempo continuo in banda base diventi

(2)x(t)=nanϕ(tnT)

Le modulazioni tipiche usano questo caso speciale {ϕn(t)}soddisfa il criterio ISI di Nyquist con filtro abbinato da recuperarean. Un ben notoϕ(t)è il coseno sollevato dalla radice .

Il canale AWGN continuo è un modello che

(3)y(t)=x(t)+n(t)

dove n(t) è un processo stocastico bianco gaussiano.

Da (2), possiamo vederlo an è la proiezione di x(t) su {ϕn(t)}. Fai la stessa cosa conn(t), le proiezioni di n(t) su un insieme ortonormale è una sequenza di variabili casuali iid gaussiane wn=n(t),ϕn(t) (Lo penso davvero n(t)è definito dalle sue proiezioni); e chiamayn=y(t),ϕn(t). Voilà, abbiamo un modello temporale discreto equivalente

(4)yn=an+wn

La formula (1) è indicata per S e N sono energia (varianza se an e wn sono zero media) di an e wn, rispettivamente. Sean e wn sono gaussiani, così è yne la capacità è massimizzata. (Posso aggiungere una semplice prova se vuoi).

cosa significa che il segnale di ingresso è gaussiano? Significa che l'ampiezza di ogni simbolo di una parola in codice deve essere presa da un insieme gaussiano?

Significa variabili casuali an sono gaussiani.

Qual è la differenza tra l'uso di un libro di codici speciale (in questo caso gaussiano) e la modulazione del segnale con segnalazione M-ary, diciamo MPSK?

La forma d'onda ϕn(t) set deve essere ortonormale, il che è vero per M-PSK, quindi wn è gaussiano.

Aggiornamento comunqueanè quantizzato, quindi in generale, non è più gaussiano. Ci sono alcune ricerche su questo argomento, come l'uso di Lattice Gaussian Coding (link) .


@msm intendevo il canale "tempo discreto". Sì, queste variabili casuali sono continue, il loro supporto è continuo. Ho parlato di tempo continuo e tempo discreto perché l'autore ha chiesto la modulazione.
AlexTP,

@msm my (3) è continuo e (4) è l'equivalente discreto. Fisicamente in scala non quantistica, siamo in (3). Per analizzare, usiamo (4). Stiamo solo parlando di due cose diverse, suppongo. Ho modificato la mia risposta per utilizzare la terminologia corretta.
AlexTP,

1
@msm ha visto la tua risposta e ho scoperto che avevo frainteso ciò che l'autore della domanda voleva porre sulla modulazione e cosa mi stai dicendo. Ho aggiornato la mia risposta per evitare la parte fuorviante. Grazie.
AlexTP,

"Penso davvero che n (t) sia definito dalle sue proiezioni" - Il problema è che il rumore bianco ha dimensioni infinite. Ciò che è interessante è che, per il problema del recuperoan, solo la proiezione ϕn(t)è rilevante - tutte le altre infinite possibili proiezioni non aiutano. Vedi il "teorema dell'irrilevanza".
MBaz,

@MBaz sì, sono d'accordo. Il teorema di irrilevanza e il teorema del campionamento sono la coppia per stabilire un modello di canale temporale discreto di base. La parte ortogonale è non correlata, quindi indipendente sotto l'ipotesi gaussiana. Tuttavia, penso che non modificherei la mia risposta perché questo materiale di proiezione non è direttamente correlato alla domanda. Grazie per averlo chiarito.
AlexTP,

3

Dire che il segnale di ingresso ha una distribuzione gaussiana significa che è distribuito come una variabile casuale gaussiana. In pratica, ci si basa sulla codifica su più istanze del canale (nel tempo) invece di fare affidamento su una distribuzione di input gaussiana. C'è una bella teoria piena di prove che va oltre lo scopo di questa risposta (Teoria dell'Informazione). I codici di controllo degli errori (o codici di canale) in genere si basano sull'uso delle modulazioni QAM / PSK familiari, ma attraverso la ridondanza del codice e gli usi di più canali, possono avvicinarsi (sebbene non raggiungano del tutto) la capacità del canale. Di seguito viene fornito uno schizzo del ragionamento (senza dettagli completi).

La definizione di capacità del canale è

C=suppX(x)I(X;Y)
dove X può essere liberamente definito come variabile casuale di input e Y può essere liberamente definito come variabile casuale di output e I(,)sono le informazioni reciproche diX e Y. Questa definizione ci impone di cercare su tutte le possibili distribuzioni dell'inputpX(x)per le distribuzioni che massimizzano le informazioni reciproche. Il canale AWGN discreto ha una relazione di input / output definita come
Y=X+Z
dove Z è una media gaussiana con varianza zero σZ2 (notare che σZ2=N e σX2=Snella tua notazione). Non ho tempo di fornire tutti i dettagli in questo momento. Tuttavia, qualsiasi libro sulla teoria dell'informazione può guidarti attraverso la prova che dimostra che seX viene distribuito come gaussiano allora I(X;Y) (le informazioni reciproche di X e Y) è ingrandito. Ad esempio, vedi Elements of Information Theory di Thomas Cover. Se non l'hai ancora letto, il trattato originale di Shannon A Mathematical Theory of Communication è una lettura utile con un chiaro ragionamento in tutto.

Nessun motivo dato per il voto negativo?
salta
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.