C'è qualche utilità per la quantità
C'è qualche utilità per la quantità
Risposte:
Lettere indica una funzione di densità di probabilità (rispettivamente rispetto a Lebesgue o misura di conteggio), la quantità è noto comeentropia Renyidell'ordineα≥0. È una generalizzazione dell'entropia di Shannon che conserva molte delle stesse proprietà. Nel casoα=1, interpretiamoH1(f)comelimα→1Hα(f), e questo corrisponde all'entropia standard di ShannonH(f).
Renyi ha introdotto questo nel suo documento
A. Renyi, Su misure di informazione ed entropia , Proc. 4th Berkeley Symp. sulla matematica., Stat. e Prob. (1960), pagg. 547-561.
che vale la pena leggere, non solo per le idee ma per lo stile espositivo esemplare.
Il caso è una delle scelte più comuni per α e questo caso speciale è (anche) spesso indicato come entropia di Renyi. Qui vediamo che H 2 ( f ) = - log ( ∫ f 2 d μ ) = - log ( E f ( X ) ) per una variabile casuale distribuita con densità f .
L'entropia (generale) di Renyi è anche apparentemente correlata all'energia libera di un sistema in equilibrio termico, sebbene io non ne sia personalmente all'altezza. Un (molto) recente articolo sull'argomento è
JC Baez, entropia di Renyi ed energia libera , arXiv [quant-ph] 1101.2098 (febbraio 2011).