Come interpretare l'entropia differenziale?


15

Di recente ho letto questo articolo sull'entropia di una distribuzione di probabilità discreta. Descrive un bel modo di pensare all'entropia come i bit numerici previsti (almeno quando si utilizza il log2 nella definizione dell'entropia) necessari per codificare un messaggio quando la codifica è ottimale, data la distribuzione di probabilità delle parole che si usano.

Tuttavia, quando si estende al caso continuo come qui, credo che questo modo di pensare si rompa, poiché per qualsiasi distribuzione di probabilità continua p ( x ) (per favore correggimi se è sbagliato), quindi ero chiedendosi se esiste un modo carino di pensare a cosa significhi entropia continua, proprio come nel caso discreto.xp(x)=p(x)


Hai provato a leggere articoli di Wikipedia sull'entropia e l'entropia differenziale?
ttnphns,

Una distribuzione continua non ha una funzione di massa di probabilità. L'analogo nel caso continuo è l'integrale di una densità di probabilità e l'integrale sull'intero intervallo di x è uguale a 1.
Michael R. Chernick

@MichaelChernick Non ho detto che ne avesse uno, ma il modo di pensare al caso discreto si basa sul fatto che la somma è uguale a 1.
dippynark

@ttnphns no, non ho, ma li controllerò ora, grazie.
Dippynark,

Vedi anche stats.stackexchange.com/questions/66186/… per l'interpretazione dell'entropia di Shannon. Alcune idee possono essere trasferite.
kjetil b halvorsen,

Risposte:


15

Non c'è interpretazione dell'entropia differenziale che sarebbe significativa o utile come quella dell'entropia. Il problema con variabili casuali continue è che i loro valori hanno in genere 0 probabilità, e quindi richiederebbero un numero infinito di bit per codificare.

[nε,(n+1)ε[

p(x)log2p(x)dxlog2ε

e non l'entropia differenziale. Questa quantità è in un certo senso più significativa, ma divergerà all'infinito man mano che prendiamo intervalli sempre più piccoli. Ha senso, poiché avremo bisogno di sempre più bit per codificare in quale dei tanti intervalli cade il valore del nostro valore casuale.

Una quantità più utile da guardare per le distribuzioni continue è l'entropia relativa (anche divergenza di Kullback-Leibler). Per distribuzioni discrete:

DKL[P||Q]=xP(x)log2P(x)Q(x).

PlogQ2(x)x

DKL[p∣∣q]=p(x)log2p(x)q(x)dx,

log2ε

p(x)λ(x)=1

p(x)log2p(x)dx=DKL[p∣∣λ].

log2nε(n+1)εp(x)dxnlogελ

Guarda il discorso di Sergio Verdu per una grande introduzione all'entropia relativa.

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.