So che hai chiesto esplicitamente una spiegazione intuitiva e di tralasciare la definizione formale, ma penso che siano piuttosto correlati, quindi vorrei ricordare la definizione di set tipico:
X1,X2,...sonoiidvariabili casuali∼ p(x) , allora il tipico insiemeA(n)ϵ rispetto alp(x) è l'insieme di sequenze( x1, x2,...,xn)∈χn con la proprietà
2−n(H(X)+ϵ)≤p(x1,x2,...,xn)≤2−n(H(X)−ϵ)(1)
Ciò significa che per un fissatoϵ, il set tipico è composto da tutte le sequenze le cui probabilità sonovicinea2−nH(X). Quindi, affinché una sequenza appartenga all'insieme tipico, deve solo avere una probabilità vicina a2−nH(X), di solito non lo fa. Per capire perché, mi permetta di riscrivere l'equazione 1 applicando log2 su di esso.
H(X)−ϵ≤1nlog2(1p(x1,x2,...,xn))≤H(X)+ϵ(2)
Ora la definizione tipica dell'insieme è più direttamente correlata al concetto di entropia, o dichiarata in un altro modo, l'informazione media della variabile casuale. Il medio termine può essere pensato come l'entropia campione della sequenza, quindi l'insieme tipico è costituito da tutte le sequenze che ci stanno fornendo una quantità di informazioni vicine all'informazione media della variabile casuale X . La sequenza più probabile di solito ci fornisce meno informazioni rispetto alla media. Ricorda che, minore è la probabilità di un risultato, maggiore sarà l'informazione che ci fornisce. Per capire perché mi permetta di fare un esempio:
Supponiamo che tu viva in una città il cui clima è molto probabile che sia soleggiato e caldo, tra 24 ° C e 26 ° C. Puoi guardare il bollettino meteorologico ogni mattina, ma non ti importerebbe molto, voglio dire, è sempre soleggiato e caldo. Ma se un giorno il tempo uomo / donna ti dicesse che oggi pioverà e farà freddo, questo è un punto di svolta. Dovrai usare alcuni vestiti diversi, prendere un ombrello e fare altre cose che di solito non fai, quindi l'uomo del tempo ti ha dato delle informazioni davvero importanti.
Per riassumere, la definizione intuitiva dell'insieme tipico è che consiste in sequenze che ci forniscono una quantità di informazioni vicine a quella prevista della sorgente (variabile casuale).
$$H(X)-\epsilon\le \frac{1}{n}log_2(\frac{1}{p(x_1,x_2,...,x_n)}) \le H(X)+\epsilon \tag{2}$$
...