Sto cercando un balzo sul entropia della somma di due variabili aleatorie discrete indipendenti X e Y . Naturalmente, H ( X + Y ) ≤ H ( X ) + H ( Y ) ( ∗ ) Tuttavia, applicato alla somma di n variabili casuali indipendenti di Bernoulli Z 1 , … , Z n , questo dà
H ( Z 1 +H( X+ Y)XY
H( X+ Y) ≤ H( X) + H( Y) ( ∗ )
nZ1, ... , Zn In altre parole, il limite cresce linearmente con
n quando applicato ripetutamente. Tuttavia,
Z 1 + ⋯ Z n è supportato su un set di dimensioni
n , quindi la sua entropia è al massimo
log n . In realtà, per il teorema del limite centrale, sto cercando di indovinare che
H ( Z 1 + ⋯ + Z n ) ≈ ( 1 / 2 ) logH( Z1+ Z2+ ⋯ + Zn) ≤ n H( Z1)
nZ1+ ⋯ Znnlogn poiché è essenzialmente supportato su un set di dimensioni
√H( Z1+ ⋯ + Zn) ≈ ( 1 / 2 ) logn .
n--√
In breve, il limite supera di un bel po 'in questa situazione. Dando un'occhiata a questo post del blog , raccolgo tutti i tipi di limiti su H ( X + Y ) sono possibili; esiste un limite che dia gli asintotici giusti (o, almeno, asintotici più ragionevoli) se applicato ripetutamente alla somma delle variabili casuali di Bernoulli?( ∗ )H( X+ Y)