Wow, ottima domanda! Vorrei provare a spiegare la risoluzione. Ci vorranno tre passaggi distinti.
La prima cosa da notare è che l'entropia è focalizzata maggiormente sul numero medio di bit necessari per disegno, non sul numero massimo di bit necessari.
Con la procedura di campionamento, il numero massimo di bit casuali necessari per estrazione è N bit, ma il numero medio di bit necessari è 2 bit (la media di una distribuzione geometrica con p=1/2 ) - questo è perché c'è un 1/2 probabilità che è necessario solo 1 bit (se il primo bit risulta essere 1), un 1/4 probabilità che è necessario solo 2 bit (se i primi due bit risultano essere 01), un 1/8 probabilità che siano necessari solo 3 bit (se i primi tre bit risultano 001) e così via.
La seconda cosa da notare è che l'entropia non cattura realmente il numero medio di bit necessari per un singolo sorteggio. Invece, le catture entropia il ammortizzato numero di bit necessari per campione m IID trae da questa distribuzione. Supponiamo di aver bisogno di bit f(m) per campionare m disegni; allora l'entropia è il limite di f(m)/m come m→∞ .
La terza cosa da notare è che, con questa distribuzione, è possibile assaggiare m IID disegna con meno bit del necessario per una più volte campione pareggio. Supponiamo che ingenuamente ha deciso di elaborare un campione (prende 2 bit casuali in media), quindi disegnare un altro campione (utilizzando 2 bit più casuali in media), e così via, fino a quando hai ripetuto questa m volte. Ciò richiederebbe in media circa 2m bit casuali.
Ma si scopre che esiste un modo per campionare da m draw usando meno di 2m bit. È difficile da credere, ma è vero!
Lascia che ti dia l'intuizione. Supponiamo annotato il risultato di campionamento m disegna, dove m è davvero grande. Quindi il risultato potrebbe essere specificato come stringa m -bit. Questo m stringa bit sarà principalmente 0., con qualche 1 è in esso: in particolare, in media, avrà circa m/2N 1 del (potrebbero essere più o meno, ma se m è sufficientemente grande, di solito il numero sarà vicino a quello). La lunghezza degli spazi tra gli 1 è casuale, ma sarà tipicamente da qualche parte vagamente nelle vicinanze di 2N(potrebbe facilmente essere la metà o il doppio o anche di più, ma di quell'ordine di grandezza). Naturalmente, invece di scrivere l'intera stringa m -bit, potremmo scriverla in modo più succinto scrivendo un elenco delle lunghezze degli spazi vuoti - che trasporta tutte le stesse informazioni, in un formato più compresso. Quanto più succinto? Bene, di solito avremo bisogno di circa N bit per rappresentare la lunghezza di ogni gap; e ci saranno circa m/2N gap; quindi avremo bisogno di circa mN/2N bit (potrebbe essere un po 'di più, potrebbe essere un po' meno, ma se m è sufficientemente grande, di solito sarà vicino a quello). È molto più breve di unmstringa m -bit.
E se c'è un modo per scrivere la stringa in modo succinto, forse non sarà troppo sorprendente se ciò significa che c'è un modo per generare la stringa con un numero di bit casuali paragonabili alla lunghezza della stringa. In particolare, generi casualmente la lunghezza di ogni spazio vuoto; questo è campionamento da una distribuzione geometrica con p=1/2N , e che può essere fatto con circa ∼N bit casuali in media (non 2N ). Avrai bisogno di circa m/2N traendo da questa distribuzione geometrica, quindi avrai bisogno di circa ∼Nm/2Nbit casuali. (Potrebbe essere un piccolo fattore costante più grande, ma non troppo grande.) E, si noti che questo è molto più piccolo di 2m bit.
Quindi, siamo in grado di campionare m IID trae dalla vostra distribuzione, utilizzando solo f(m)∼Nm/2N bit casuali (circa). Ricordiamo che l'entropia è limm→∞f(m)/m . Quindi questo significa che si dovrebbe aspettare l'entropia di essere (approssimativamente) N/2N . Questo è un po 'fuori, perché il calcolo di cui sopra era approssimativo e rozzo - ma speriamo che ti dia qualche intuizione sul perché l'entropia è quello che è e perché tutto è coerente e ragionevole.