Domande taggate «shannon-entropy»

4
L'equivalenza eta per le funzioni è compatibile con l'operazione seq di Haskell?
Lemma: Supponendo che eta-equivalenza lo abbiamo (\x -> ⊥) = ⊥ :: A -> B. Prova: ⊥ = (\x -> ⊥ x)per eta-equivalenza e (\x -> ⊥ x) = (\x -> ⊥)per riduzione sotto la lambda. Il rapporto Haskell 2010, sezione 6.2 specifica la seqfunzione con due equazioni: seq :: …

3
Sull'entropia di una somma
Sto cercando un balzo sul entropia della somma di due variabili aleatorie discrete indipendenti X e Y . Naturalmente, H ( X + Y ) ≤ H ( X ) + H ( Y ) ( ∗ ) Tuttavia, applicato alla somma di n variabili casuali indipendenti di Bernoulli Z …

2
Risultati della codifica dei canali usando la complessità di Kolmogorov
Di solito l'entropia di Shannon viene utilizzata per dimostrare i risultati della codifica dei canali. Anche per i risultati di separazione canale-sorgente viene utilizzata l'entropia shannon. Data l'equivalenza tra Shannon (globale) e Kolmogorov (locale) nozioni di informazione, c'è stato uno studio per utilizzare la complessità di Kolmogorov per questi risultati …

1
Chi ha coniato il termine "entropia empirica"?
Conosco il lavoro di Shannon con l'entropia, ma ultimamente ho lavorato su strutture dati sintetiche in cui l' entropia empirica viene spesso utilizzata come parte dell'analisi della memoria. Shannon definito l'entropia delle informazioni prodotte da una fonte di informazioni discreti , dove p i è la probabilità dell'evento i verifichi, …
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.