Quando dici che il "contenuto delle informazioni può rimanere lo stesso", intendi le informazioni nel segnale totale o le informazioni del segnale desiderato? Spero che questo risponda ad entrambi i casi. Conosco l'entropia di Shannon molto meglio di Kolmogorov, quindi la userò, ma spero che la logica si traduca.
Diciamo che è il segnale totale ( ), che comprende la somma del segnale desiderato e il vostro rumore componente . Chiamata entropia Let . Come hai detto, il rumore aggiunge entropia a un sistema aumentandone la complessità. Tuttavia, non è necessariamente solo perché siamo più incerti sul contenuto delle informazioni del segnale, ma perché c'è più incertezza nel segnale complessivo. Se il tipo di SNR misura quanto siamo certi di ciò che è , allora il tipo misura quanto possiamo prevedere gli stati futuri di base allo stato attuale diX S N H S H ( X ) X XX= S+ NXSNHSH( X)XX. L'entropia si preoccupa di quanto sia complesso l'intero segnale, indipendentemente dalla composizione del rumore rispetto al non-rumore.
Se si aumenta SNR rimuovendo il rumore (attenuando ), si riduce la complessità del segnale totale e quindi la sua entropia. Non hai perso alcuna informazione portata da , solo (presumibilmente privo di significato) informazioni portato da . Se è rumore casuale, ovviamente non contiene informazioni significative, ma ci vuole una certa quantità di informazioni per descrivere lo stato di , determinato dal numero di stati in cui N può trovarsi e dalla probabilità che si trovi ciascuno di quegli stati. Questa è l'entropia.X S N N NNXSNNN
Possiamo guardare due distribuzioni gaussiane con varianze diverse, diciamo che una ha una varianza di e l'altra ha una varianza di . Solo osservando l'equazione per una distribuzione gaussiana, vediamo che la distribuzione ha una probabilità massima che è solo th il valore della probabilità distr. Al contrario, ciò significa che esiste una maggiore probabilità che distr prenderà valori diversi dalla media o che vi sia più certezza che la distribuzione prenderà valori vicini alla media. Pertanto, la distribuzione ha un'entropia inferiore rispetto a100 V a r = 100 11100Va r = 100 var=1Var=100Var=1Var=1Var=100110v a r = 1Va r = 100Va r = 1Va r = 1Va r = 100 distribuzione.
Abbiamo stabilito che una maggiore varianza implica una maggiore entropia. Osservando la propagazione dell'errore, è anche vero che (uguale per , indipendente ). Se , quindi per entropia , . Poiché è (indirettamente) una funzione della varianza, possiamo confondere un po 'le cose per dire . Per semplificare, diciamo che e sono indipendenti, quindi . Il SNR migliorato spesso significa attenuare la potenza del rumore. Questo nuovo segnale con SNR più alto sarà quindi , perX Y X = S + N H H ( X ) = H ( S + N ) H H ( V a r [ X ] ) = H ( V a r [ S +Va r ( X+ Y) > = Va r ( X) + Va r ( Y)XYX= S+ NHH( X) = H( S+ N)HS N H ( V a r [ X ] ) = H ( V a r [ S ] + V a r [ N ] ) X = S + ( 1H( Va r [ X] ) = H( Va r [ S+ N] )SNH( Va r [ X] ) = H( Va r [ S] + Va r [ N] )k>1H(Var[X])=H(Var[S]+(1/k)2∗Var[N])k1Var[N]Var[N]Var[S+N]X= S+ ( 1K) Nk > 1 . L'entropia diventa quindi . è maggiore di , quindi diminuirà quando N viene attenuato. Se diminuisce, anche , e quindi , si traduce in una diminuzione di .H( Va r [ X] ) = H( Va r [ S] + ( 1 / k )2∗ Va r [ N] )K1Va r [ N]Va r [ N]Va r [ S+ N]H ( X )Va r [ X]H( X)
Non molto conciso, scusa. In breve, 's entropia diminuisce se si aumenta SNR, ma non hai nulla fatto per ' informazioni s. Non riesco a trovare le fonti in questo momento, ma esiste un metodo per calcolare SNR e informazioni reciproche (una misura bivariata simile all'entropia) l'una dall'altra. Forse il principale asporto è che SNR ed entropia non misurano la stessa cosa.SXS