Conosco il lavoro di Shannon con l'entropia, ma ultimamente ho lavorato su strutture dati sintetiche in cui l' entropia empirica viene spesso utilizzata come parte dell'analisi della memoria.
Shannon definito l'entropia delle informazioni prodotte da una fonte di informazioni discreti , dove p i è la probabilità dell'evento i verifichi, ad esempio un carattere specifico generato, e ci sono k possibili eventi.
Come sottolineato da MCH nei commenti, l' entropia empirica è l'entropia della distribuzione empirica di questi eventi, ed è quindi data da doveè il numero di occorrenze osservate dell'eventoeè il numero totale di eventi osservati. Questo si chiamaentropia empirica di ordine zero. La nozione dientropia condizionaledi Shannonha unaversione empirica diordine superioresimile.
Shannon non ha usato il termine entropia empirica, anche se sicuramente merita parte del merito di questo concetto. Chi per primo ha usato questa idea e chi per primo ha usato il nome (molto logico) entropia empirica per descriverla?