Ci proverò, anche se è un po 'sopra la mia testa, quindi tratta con una spolverata di sale ...
Non hai esattamente torto. Penso che il punto in cui il tuo esperimento mentale cade è che l'entropia differenziale non è il caso limite dell'entropia. Suppongo che a causa di ciò, i parallelismi tra esso e la complessità di Kolmogorov siano persi.
Diciamo che abbiamo una discreta variabile aleatoria . Possiamo calcolare la sua entropia di Shannon come segue sommando tutti i suoi possibili valori x i ,
H ( X ) = - ∑ i P ( X = x i ) log ( P ( X = x i ) ) .XXio
H( X) = - ∑ioP( X= xio) log( P( X= xio) ) .
Fin qui tutto noioso. Ora diciamo che è una versione quantizzata di una variabile casuale continua - diciamo, abbiamo la funzione di densità p ( ) che genera campioni dall'insieme di numeri reali e la trasformiamo in un istogramma. Avremo un istogramma abbastanza fine che la funzione di densità è essenzialmente lineare. In quel caso avremo un'entropia simile a questa,
H ( X ) ≈ - ∑ i p ( X = x i ) δ x log ( p ( X = x i ) δ xXp ( )
doveδxè la larghezza dei nostri contenitori dell'istogramma exiè il punto medio di ciascuno. Abbiamo un prodotto all'interno di quel logaritmo - separiamolo e usiamo la proprietà delle distribuzioni di probabilità che sommano a 1 per spostarlo fuori dalla somma, dandoci
H(X)≈-log ( δx ) - ∑ i p(X=xi)δxlog ( p(X=xi) ) .
H( X) ≈ - ∑iop ( X= xio) δx log( p(X= xio) δx ) ,
δXXioH( X) ≈ - registro( δx ) - ∑iop ( X= xio) δx log( p(X= xio) ) .
δx → dX
H( X) = - registro( dx ) - ∫Xp ( X= x ) log( p(X= x ) ) dx .
log( dx )
σ
δ
∫Xp ( X= x ) log( p ( X= x )q( X= x )) dX
q( X)Xp ( X)q( X)