In che modo l'entropia dipende dalla posizione e dalla scala?


14

L' entropia di una distribuzione continua con funzione di densità f è definito come il negativo della aspettativa di log(f), e quindi è uguale a

Hf=log(f(x))f(x)dx.

Diciamo anche che qualsiasi variabile casuale X cui distribuzione ha densità f ha entropia Hf. (Questo integrale è ben definito anche quando f ha zeri, perché log(f(x))f(x) può essere portato a zero uguale a tali valori.)

Quando X e Y sono variabili casuali per le quali Y=X+μ ( μ è una costante), si dice che Y è una versione di X spostata di μ. Allo stesso modo, quando Y=Xσ ( σ è una costante positiva), si dice che Y è una versione di X ridimensionata di σ.Combinando una scala con uno spostamento si ottiene Y=Xσ+μ.

Queste relazioni si verificano frequentemente. Ad esempio, cambiando le unità di misura di X sposta e si ridimensiona.

In che modo l'entropia di Y=Xσ+μ correlata a quella di X?

Risposte:


17

Poiché l'elemento di probabilità di X è f(x)dx, la variazione della variabile y=xσ+μ è equivalente a x=(yμ)/σ, da cui

f(x)dx=f(yμσ)d(yμσ)=1σf(yμσ)dy

ne segue che la densità di Y è

fY(y)=1σf(yμσ).

Di conseguenza l'entropia di Y è

H(Y)=log(1σf(yμσ))1σf(yμσ)dy

che, cambiando la variabile in x=(yμ)/σ, produce

H(Y)=log(1σf(x))f(x)dx=(log(1σ)+log(f(x)))f(x)dx=log(σ)f(x)dxlog(f(x))f(x)dx=log(σ)+Hf.

f(x)dx

La conclusione è

Y=Xσ+μXlog(σ).

σ1log(σ).


μσ(μ,σ)μ=0σ=1.

log(f(x))=12log(2π)x2/2,

da dove

H=E[12log(2π)X2/2]=12log(2π)+12.

(μ,σ)logσ

H=12log(2π)+12+log(σ)=12log(2πeσ2)

come riportato da Wikipedia .

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.