Supponiamo di avere una variabile casuale che prende valori non numerici a, b, c e che vogliamo quantificare come la distribuzione empirica di campioni di questa variabile si discosti dalla vera distribuzione. In questo caso si applica la seguente disuguaglianza (da Cover & Thomas ).
Teorema 12.4.1 (teorema di Sanov): Sia sia iid . Lascia che sia un insieme di distribuzioni di probabilità. Quindi dove è la distribuzione in E che è più vicina a Q in entropia relativa.
Questa disuguaglianza è abbastanza libera per i piccoli . Per i risultati binari, e il limite di Chernoff-Hoeffding è molto più stretto.
Esiste un limite altrettanto stretto per ?