Di recente ho letto questo articolo sull'entropia di una distribuzione di probabilità discreta. Descrive un bel modo di pensare all'entropia come i bit numerici previsti (almeno quando si utilizza il nella definizione dell'entropia) necessari per codificare un messaggio quando la codifica è ottimale, data la distribuzione di probabilità delle parole che si usano.
Tuttavia, quando si estende al caso continuo come qui, credo che questo modo di pensare si rompa, poiché per qualsiasi distribuzione di probabilità continua p ( x ) (per favore correggimi se è sbagliato), quindi ero chiedendosi se esiste un modo carino di pensare a cosa significhi entropia continua, proprio come nel caso discreto.