La forma più semplice del CLT teorico dell'informazione è la seguente:
Sia essere identificato con media e varianza . Sia la densità della somma normalizzata n D ( f n ‖ ϕ ) → 0 n → ∞
Certamente questa convergenza, in un certo senso, è "più forte" delle ben radicate convergenze in letteratura, convergenza nella distribuzione e convergenza nella metrica , grazie alla disuguaglianza di Pinsker . Cioè, la convergenza nella divergenza KL implica la convergenza nella distribuzione e la convergenza nella distanza .
Vorrei sapere due cose.
Cosa c'è di così straordinario nel risultato ?
E 'solo a causa del motivo risulta dal terzo comma, diciamo convergenza KL-divergenza ( ad esempio , ) è più forte?
NB: Ho fatto questa domanda qualche tempo fa in math.stackexchange dove non ho ricevuto alcuna risposta.