Secondo Wikipedia :
L'entropia di Shannon misura le informazioni contenute in un messaggio in contrapposizione alla parte del messaggio determinata (o prevedibile). Esempi di quest'ultimo includono la ridondanza nella struttura del linguaggio o le proprietà statistiche relative alle frequenze di occorrenza di coppie di lettere o di parole, terzine, ecc.
Quindi l'entropia è una misura della quantità di informazioni contenute in un messaggio. I codificatori di entropia vengono utilizzati per comprimere senza perdita di dati tale messaggio al numero minimo di bit necessari per rappresentarlo (entropia). A me sembra che un perfetto encoder entropico sarebbe tutto ciò che serve per comprimere il messaggio senza perdita di dati il più possibile.
Molti algoritmi di compressione tuttavia utilizzano passaggi prima della codifica entropica per ridurre presumibilmente l'entropia del messaggio.
Secondo Wikipedia in tedesco
Entropiekodierer werden häufig mit anderen Kodierern kombiniert. Dabei dienen vorgeschaltete Verfahren dazu, die Entropie der Daten zu verringern.
In inglese:
I codificatori di entropia sono spesso combinati con altri encoder. I passaggi precedenti servono per ridurre l'entropia dei dati.
vale a dire che bzip2 usa la trasformazione di Burrows-Wheeler seguita da una trasformazione Move-To-Front prima di applicare la codifica entropica (codifica Huffman in questo caso).
Questi passaggi riducono davvero l'entropia del messaggio, il che implicherebbe la riduzione della quantità di informazioni contenute nel messaggio? Questo mi sembra contraddittorio, poiché ciò significherebbe che le informazioni sono state perse durante la compressione, prevenendo la decompressione senza perdita di dati. Oppure trasformano semplicemente il messaggio per migliorare l'efficienza dell'algoritmo di codifica entropica? O l'entropia non corrisponde direttamente alla quantità di informazioni nel messaggio?